Day61
分布式计算框架Map/Reduce
分布式计算框架MapReduce
1、产生背景
- Web2.0时代,数据爆炸式、指数级增长,大数据分布式计算需求频繁
- 通过单机内存扩展来增强计算能力,已经无法承载大规模数据量的计算
- 分布式计算开发和维护的复杂与多变,对程序员要求太高
Google公司为了解决其搜索引擎中大规模网页数据的并行化处理,研究提出的一种面向大规模数据处理的并行计算模型和方法,称为MapReduce。
2003年和2004年,Google公司在国际会议上分别发表了两篇关于Google分布式文件系统GFS和MapReduce的论文,公布了Google的GFS和MapReduce的基本原理和主要设计思想。
2004年,Cutting和同为程序员出身的Mike Cafarella决定开发一款可以代替当时的主流搜索产品的开源搜索引擎,这个项目被命名为Nutch。2005年初,Nutch的开发人员在Nutch上实现了一个MapReduce系统,到年中,Nutch的所有主要算法均完成移植,用MapReduce和NDFS来运行。在2006年2月,开发人员将NDFS和MapReduce移出Nutch形成Lucene的一个子项目,称为Hadoop。Hadoop中MapReduce的实现正是基于Google的论文的MapReduce的开源实现。
2、MapReduce是什么
MapReduce是一种编程模型,是面向大数据并行处理的计算模型、框架和平台。
- MapReduce是一个基于集群的高性能并行计算平台。可以使用普通服务器构成一个包含数十、数百、甚至数千个节点的分布式和并行计算集群。
- MapReduce是一个并行计算与运行的软件框架。它提供了一个庞大但设计精良的并行计算软件框架,能自动划分计算数据和计算任务,自动完成计算任务的并行化处理,实现在集群节点上自动分配和执行任务并收集计算结果,将数据分布存储、数据通信、容错处理等并行计算涉及到的很多系统底层的复杂实现细节交由系统负责处理,大大减少了软件开发人员的负担。
- MapReduce是一个并行程序设计模型与方法。它提供了一种简便的并行程序设计方法,用Map和Reduce两个函数编程实现基本的并行计算任务,提供了抽象的操作和并行编程接口,以简单方便地完成大规模数据的编程和计算处理。
3、基本特点
- 分布可靠,对数据集的操作分发给集群中的多个节点实现可靠性,每个节点周期性返回它完成的任务和最新的状态
- 封装了实现细节,基于框架API编程,面向业务展开分布式编码
- 提供跨语言编程的能力
4、企业应用
- 各大运营商
- 中大型互联网公司,如BAT、京东、乐视、美团等
- 金融银行保险类公司
- 各大云平台的分布式计算框架
- 其他本地系统无法承载计算能力的应用
MapReduce运行流程
1、MapReduce的主要功能
1.1数据划分和计算任务调度
系统自动将一个作业(Job)待处理的大数据划分为很多个数据块,每个数据块对应于一个计算任务(Task),并自动调度计算节点来处理相应的数据块。作业和任务调度功能主要负责分配和调度计算节点(Map节点或Reduce节点),同时负责监控这些节点的执行状态,并负责Map节点执行的同步控制。
1.2数据/代码互相定位
为了减少数据通信,一个基本的原则是本地化数据处理,即一个计算节点尽可能处理其本地磁盘上所分布存储的数据,这实现了代码向数据的迁移;当无法进行这种本地化数据处理时,再寻找其他可用节点并将数据从网络上传送给该节点(数据向代码迁移),但尽可能从数据所在的本地机架上寻找可用节点以减少通信延迟。
1.3系统优化
为了减少数据通信开销,中间结果数据进入Reduce节点前会进行一定的合并处理;一个Reduce节点所处理的数据可能会来自多个Map节点,为了避免Reduce计算阶段发生数据处理不平衡,Map节点输出的中间结果需使用一定的策略进行适当的划分处理,保证相关性数据发送到同一个Reduce节点;此外,系统还进行一些性能优化处理,如对最慢的计算任务采用多备份执行、选最快完成者作为结果。
1.4出错检测和恢复
以低端的商用服务器构成的大规模MapReduce计算集群中,节点硬件(主机、磁盘、内存等)出错和软件出错是常态,因此MapReduce需要能检测并隔离出错节点,并调度分配新的节点接管出错节点的计算任务。同时系统还将维护数据存储的可靠性,用多备份冗余存储机制提高数据存储的可靠性,并能及时检测和恢复出错的数据。
2、MapReduce的运行流程
2.1运行流程
由上图可以看到MapReduce执行下来主要包含这样几个步骤:
1) 首先正式提交作业代码,并对输入数据源进行切片
2) master调度worker执行map任务
3) worker当中的map任务读取输入源切片
4) worker执行map任务,将任务输出保存在本地
5) master调度worker执行reduce任务,reduce worker读取map任务的输出文件
6) 执行reduce任务,将任务输出保存到HDFS
2.2 运行流程详解
- 以WordCount为例
给定任意的HDFS的输入目录,其内部数据为“f a c d e……”等用空格字符分隔的字符串,通过使用MapReduce计算框架来统计以空格分隔的每个单词出现的频率,输出结果如,,形式的结果到HDFS目录中。
- WordCount运行图解
MapReduce将作业的整个运行过程分为两个阶段:Map阶段Reduce阶段。
Map阶段由一定数量的Map Task组成,流程如下:
- 输入数据格式解析:InputFormat
- 输入数据处理:Mapper
- 数据分区:Partitioner
- 数据按照key排序
- 本地规约:Combiner(相当于local reducer,可选)
- 将任务输出保存在本地
Reduce阶段由一定数量的Reduce Task组成,流程如下:
- 数据远程拷贝
- 数据按照key排序和文件合并merge
- 数据处理:Reducer
- 数据输出格式:OutputFormat
通常我们把从Mapper阶段输出数据到Reduce阶段的reduce计算之间的过程称之为shuffle。
MapReduce Java API应用
1、MapReduce开发流程
- 搭建开发环境,参考HDFS环境搭建,基本一致
- 基于MapReduce框架编写代码,Map、Reduce、Driver三部分组成。
- 编译打包,将源代码打成的包和依赖jar包打成一个包
- 上传至运行环境
- 运行hadoop jar命令,现已由yarn jar替代,建议使用新命令提交执行
具体提交命令为:
yarn jar testhdfs-jar-with-dependencies.jar com.tianliangedu.driver.WordCount /tmp/tianliangedu/input /tmp/tianliangedu/output3
- 通过yarn web ui查看执行过程
- 查看执行结果
2、WordCount代码实现
2.1 Map类编写
- Mapper:是MapReduce计算框架中Map过程的封装
- Text:Hadoop对Java String类的封装,适用于Hadoop对文本字符串的处理
- IntWritable:Hadoop对Java Integer类的封装,适用于Hadoop整型的处理
- Context:Hadoop环境基于上下文的操作对象,如Map中key/value的输出、分布式缓存数据、分布式参数传递等
- StringTokenizer:对String对象字符串的操作类,做基于空白字符的切分操作工具类
- 源码编写实现:
package com.tianliangedu.mapper;
import java.io.IOException;
import java.util.StringTokenizer;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;
public class MyTokenizerMapper extends
Mapper {
// 暂存每个传过来的词频计数,均为1,省掉重复申请空间
private final static IntWritable one = new IntWritable(1);
// 暂存每个传过来的词的值,省掉重复申请空间
private Text word = new Text();
// 核心map方法的具体实现,逐个对去处理
public void map(Object key, Text value, Context context)
throws IOException, InterruptedException {
// 用每行的字符串值初始化StringTokenizer
StringTokenizer itr = new StringTokenizer(value.toString());
// 循环取得每个空白符分隔出来的每个元素
while (itr.hasMoreTokens()) {
// 将取得出的每个元素放到word Text对象中
word.set(itr.nextToken());
// 通过context对象,将map的输出逐个输出
context.write(word, one);
}
}
}
2.2 Reduce类编写
- Reducer:是MapReduce计算框架中Reduce过程的封装
- 源码编写实现:
package com.tianliangedu.reducer;
import java.io.IOException;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;
//reduce类,实现reduce函数
public class IntSumReducer extends
Reducer {
private IntWritable result = new IntWritable();
//核心reduce方法的具体实现,逐个去处理
public void reduce(Text key, Iterable values,
Context context) throws IOException, InterruptedException {
//暂存每个key组中计算总和
int sum = 0;
//加强型for,依次获取迭代器中的每个元素值,即为一个一个的词频数值
for (IntWritable val : values) {
//将key组中的每个词频数值sum到一起
sum += val.get();
}
//将该key组sum完成的值放到result IntWritable中,使可以序列化输出
result.set(sum);
//将计算结果逐条输出
context.write(key, result);
}
}
2.3 Driver类编写
- Configuration:与HDFS中的Configuration一致,负责参数的加载和传递
- Job:作业,是对一轮MapReduce任务的抽象,即一个MapReduce的执行全过程的管理类
- FileInputFormat:指定输入数据的工具类,用于指定任务的输入数据路径
- FileOutputFormat:指定输出数据的工具类,用于指定任务的输出数据路径
- 源码编写实现:
package com.tianliangedu.driver;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import com.tianliangedu.mapper.MyTokenizerMapper;
import com.tianliangedu.reducer.IntSumReducer;
public class WordCountDriver {
// 启动mr的driver方法
public static void main(String[] args) throws Exception {
// 得到集群配置参数
Configuration conf = new Configuration();
// 设置到本次的job实例中
Job job = Job.getInstance(conf, "天亮WordCount");
// 指定本次执行的主类是WordCount
job.setJarByClass(WordCountDriver.class);
// 指定map类
job.setMapperClass(MyTokenizerMapper.class);
// 指定combiner类,要么不指定,如果指定,一般与reducer类相同
job.setCombinerClass(IntSumReducer.class);
// 指定reducer类
job.setReducerClass(IntSumReducer.class);
// 指定job输出的key和value的类型,如果map和reduce输出类型不完全相同,需要重新设置map的output的key和value的class类型
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(IntWritable.class);
// 指定输入数据的路径
FileInputFormat.addInputPath(job, new Path(args[0]));
// 指定输出路径,并要求该输出路径一定是不存在的
FileOutputFormat.setOutputPath(job, new Path(args[1]));
// 指定job执行模式,等待任务执行完成后,提交任务的客户端才会退出!
System.exit(job.waitForCompletion(true) ? 0 : 1);
}
}
2.4本地模拟分布式计算环境运行mapreduce
鉴于远程运行进行代码测试的复杂性,以及其它新框架均开始支持本地local环境模拟分布式计算运行, 故mapreduce从2.x开始也已经支持本地环境
具体做法请参见辅助资料集” 06-本地local环境模拟mapreduce并行计算的操作步骤”。
2.5 Maven打包
使用Maven命令,基于配置的Maven插件实现代码打包。
2.6 上传到运行环境
使用rz命令将打好的运行包上传到集群环境中。
2.7 运行WordCount程序
具体提交命令为:
yarn jar testhdfs-jar-with-dependencies.jar com.tianliangedu.driver.WordCount /tmp/tianliangedu/input /tmp/tianliangedu/output3
2.8 查看执行过程
Web访问地址为:http://cluster1.hadoop:8088/ui2/#/yarn-apps/apps
2.9 查看执行结果
3、标准代码实现
将之前的三个类,合并成一个类来处理
import java.io.IOException;
import java.util.StringTokenizer;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
//启动mr的driver类
public class WordCountDriver {
//map类,实现map函数
public static class MyTokenizerMapper extends
Mapper {
//暂存每个传过来的词频计数,均为1,省掉重复申请空间
private final static IntWritable one = new IntWritable(1);
//暂存每个传过来的词的值,省掉重复申请空间
private Text word = new Text();
//核心map方法的具体实现,逐个对去处理
public void map(Object key, Text value, Context context)
throws IOException, InterruptedException {
//用每行的字符串值初始化StringTokenizer
StringTokenizer itr = new StringTokenizer(value.toString());
//循环取得每个空白符分隔出来的每个元素
while (itr.hasMoreTokens()) {
//将取得出的每个元素放到word Text对象中
word.set(itr.nextToken());
//通过context对象,将map的输出逐个输出
context.write(word, one);
}
}
}
//reduce类,实现reduce函数
public static class IntSumReducer extends
Reducer {
private IntWritable result = new IntWritable();
//核心reduce方法的具体实现,逐个去处理
public void reduce(Text key, Iterable values,
Context context) throws IOException, InterruptedException {
//暂存每个key组中计算总和
int sum = 0;
//加强型for,依次获取迭代器中的每个元素值,即为一个一个的词频数值
for (IntWritable val : values) {
//将key组中的每个词频数值sum到一起
sum += val.get();
}
//将该key组sum完成的值放到result IntWritable中,使可以序列化输出
result.set(sum);
//将计算结果逐条输出
context.write(key, result);
}
}
//启动mr的driver方法
public static void main(String[] args) throws Exception {
//得到集群配置参数
Configuration conf = new Configuration();
//设置到本次的job实例中
Job job = Job.getInstance(conf, "天亮WordCount");
//通过指定相关字节码对象,找到所属的主jar包
job.setJarByClass(WordCountDriver.class);
//指定map类
job.setMapperClass(MyTokenizerMapper.class);
//指定combiner类,要么不指定,如果指定,一般与reducer类相同
job.setCombinerClass(IntSumReducer.class);
//指定reducer类
job.setReducerClass(IntSumReducer.class);
//指定job输出的key和value的类型,如果map和reduce输出类型不完全相同,需要重新设置map的output的key和value的class类型
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(IntWritable.class);
//指定输入数据的路径
FileInputFormat.addInputPath(job, new Path(args[0]));
//指定输出路径,并要求该输出路径一定是不存在的
FileOutputFormat.setOutputPath(job, new Path(args[1]));
//指定job执行模式,等待任务执行完成后,提交任务的客户端才会退出!
System.exit(job.waitForCompletion(true) ? 0 : 1);
}
}
4、mapreduce作业运行的依赖项
- 提交job作业运行的linux帐户,必须在hdfs家目录中存在相应的家目录。
- 原因分析:
- 作业运行过程中,会在当前linux帐户所属的hdfs家目录创建相应的临时文件夹和相应的临时文件,故必须有该先决条件。
- 操作步骤
- 登陆帐户所在的linux主机当中,添加学员所属的班级组。
- 将学员帐户,添加到该班级组当中。
- 通过hdfs管理员帐户,为该学员创建hdfs家目录,并修改家目录的owner权限归该学员所有。
- 添加组:groupadd job008
- 改变用户所属组:usermod –G job008 ${user_name}
- 用hdfs帐户在hdfs中创建家目录:hdfs dfs –mkdir /user/${user_name}
- 将新创建的hdfs学员家目录的owner权限赋给所属学员:
- Hdfs dfs –chown –R ${user_name} /user/${user_name}
MapReduce Shell应用
1、MapReduce的二级命令
mapred称为一级命令,直接输入mapred回车,即可查看二级命令:
2、MapReduce的三级命令
输入一级命令mapred后,再任意输入一个二级命令,即可查看三级命令:
3、MapReduce shell应用
- 查看当前正在执行的job任务
先提交一个WordCount任务,然后使用mapred job -list查看任务列表
- 终止(kill)一个任务的执行
由于某种原因,要立即终止某任务的执行,则使用mapred job -kill job-id。
构造场景:先提交一个WordCount job,然后通过kill job-id来终止任务:
- 查看一个job的日志
使用mapred shell命令,通过job-id可以查看job的工作日志。
命令格式为:mapred job -logs job-id:
MapReduce技术特征
1、向“外”横向扩展,而非向“上”纵向扩展
- 集群的构建完全选用价格便宜、易于扩展的低端商用服务器,而非价格昂贵不易扩展的商用服务
- 大规模数据处理和大规模数据存储的需要,讲求集群综合能力,而非单台机器处理能力,横向增加机器节点数据量
2、失效被认为是常态
- 使用大量普通服务器,节点硬件和软件出错是常态
- 具备多种有效的错误检测和恢复机制,在某个计算节点失效后会自动转移到别的计算节点。某个任务节点失败后其他节点能够无缝接管失效节点的计算任务
- 当失效节点恢复后自动无缝加入集群,不需要管理员人工进行系统配置
3、移动计算,把处理向数据迁移(数据本地性)
- 采用代码/数据互定位的功能,计算和数据在同一个机器节点或者是同一个机架中,发挥数据本地化特点
- 可避免跨机器节点或是机架传输数据,提高运行效率
4、顺序处理数据、避免随机访问数据
- 磁盘的顺序访问远比随机访问快得多,因此MapReduce设计为面向顺序式大规模数据的磁盘访问处理
- 利用集群中的大量数据存储节点同时访问数据,实现面向大数据集批处理的高吞吐量的并行处理
5、推测执行
- 一个作业由若干个Map任务和Reduce任务构成,整个作业完成的时间取决于最慢的任务的完成时间。由于节点硬件、软件问题,某些任务可能运行很慢
- 采用推测执行机制,发现某个任务的运行速度远低于任务平均速度,会为慢的任务启动一个备份任务,同时运行。哪个先运行完,采用哪个结果。
6、平滑无缝的可扩展性
- 可弹性的增加或减少集群计算节点来调节计算能力
- 计算的性能随着节点数的增加保持接近线性程度的增长
7、为应用开发隐藏系统底层细节
- 并行编程有很多困难,需要考虑多线程中复杂繁琐的细节,诸如分布式存储管理、数据分发、数据通信和同步、计算结果收集等细节问题。
- MapReduce提供了一种抽象机制将程序员与系统层细节隔离开,程序员只需关注业务,其他具体执行交由框架处理即可。
MapReduce项目练习
1、在hdfs目录/tmp/tianliangedu/input/wordcount中有一系列文件,内容均为","号分隔,
求按","号分隔的各个元素的出现频率,输出到目录/tmp/tianliangedu/output/个人用户名的hdfs目录中。(必做)
2、在hdfs目录/tmp/tianliangedu/input/wordcount目录中有一系列文件,内容为","号分隔,分隔后的元素均为数值类型、字母、中文,求所有出现的数值的和。(必做)
3、在hdfs目录/tmp/tianliangedu/input/wordcount目录中有一系列文件,内容为","号分隔,分隔后的元素均为数值类型、字母、中文,求所有出现的数值的平均值。(必做)
4、在hdfs目录/tmp/tianliangedu/input/wordcount目录中有一系列文件,内容为","号分隔,分隔后的元素均为数值类型、字母、中文,求数值类型、字母类型、中文类型各自的次数。(必做)
5、在hdfs目录/tmp/tianliangedu/input/wordcount目录中有一系列文件,内容为","号分隔,同时在hdfs路径/tmp/tianliangedu/black.txt黑名单文件,一行一个单词用于存放不记入统计的单词列表。求按","号分隔的各个元素去除掉黑名单后的出现频率,输出到目录/tmp/tianliangedu/output/个人用户名的hdfs目录中。 (必做)
6、在hdfs目录/tmp/tianliangedu/input/wordcount目录中有一系列文件,求这些文件一共有多少行?(类似于mysql数据库中的select count(*) from table)。(必做)
7、在hdfs目录/tmp/table/student中存在student.txt文件,hdfs目录/tmp/table/student_location中存在student_location.txt文件,求两个hdfs目录中共有多少行?
8、在hdfs目录/tmp/table/student中存在student.txt文件,按tab分隔,字段名为(学号,姓名,课程号,班级名称),hdfs目录/tmp/table/student_location中存在student_location.txt文件,按tab分隔,字段名为(学号,省份,城市,区名),在Map任务中用student_location.txt文件中的学号过滤student.txt中的学号字段,输出student.txt中的存在交集的记录,输出结果结构按tab分隔后的四个字段为(学号,姓名,课程号,班级名称)。
9、(列筛选不去重) 在hdfs目录/tmp/table/student中存在student.txt文件,按tab分隔,字段名为(学号,姓名,课程号,班级名称),选择学号和班级名称列不去重输出,输出结果结构按tab分隔后的两个字段为(学号,班级名称)。
10、 (列筛选去重)在hdfs目录/tmp/table/student中存在student.txt文件,按tab分隔,字段名为(学号,姓名,课程号,班级名称),选择学号和班级名称列去掉重复存在行输出,输出结果结构按tab分隔后的两个字段为(学号,班级名称)。
11、 (列值replace操作)在hdfs目录/tmp/table/student中存在student.txt文件,按tab分隔,字段名为(学号,姓名,课程号,班级名称),将班级名称为"计算机*班"的更换成"计算机科学与技术*班",不做去重,输出结果结构按tab分隔后的两个字段为(学号,班级名称)。
12、 (列分组统计操作)在hdfs目录/tmp/table/student中存在student.txt文件,按tab分隔,字段名为(学号,姓名,课程号,班级名称),将课程号为分组,输出结果结构按tab分隔后的两个字段为(课程号,分组人数)。
13、 (列分组统计操作)在hdfs目录/tmp/table/student中存在student.txt文件,按tab分隔,字段名为(学号,姓名,课程号,班级名称),将班级名称为分组,输出结果结构按tab分隔后的两个字段为(班级名称,分组人数)。
14、 (多列分组统计操作)在hdfs目录/tmp/table/student中存在student.txt文件,按tab分隔,字段名为(学号,姓名,课程号,班级名称),将课程号和班级名称为各自分组,输出结果结构按tab分隔后的两个字段为(分组名称,分组人数),即如(课程号,分组人数)、(班级名称,分组人数)。
15、 (两表inner join) 在hdfs目录/tmp/table/student中存在student.txt文件,按tab分隔,字段名为(学号,姓名,课程号,班级名称),hdfs目录/tmp/table/student_location中存在student_location.txt文件,按tab分隔,字段名为(学号,省份,城市,区名),对两个hdfs目录的按学号求交集,输出结果结构按tab分隔后的四个字段为(学号,姓名,课程号,班级名称)。
16、 (两表left join) 在hdfs目录/tmp/table/student中存在student.txt文件,按tab分隔,字段名为(学号,姓名,课程号,班级名称),hdfs目录/tmp/table/student_location中存在student_location.txt文件,按tab分隔,字段名为(学号,省份,城市,区名),对两个hdfs目录的按学号以student为主表,求左外链接操作,输出结果结构按tab分隔后的七个字段为(学号,姓名,课程号,班级名称,省份,城市,区名)。
17、 (两表right join) 在hdfs目录/tmp/table/student中存在student.txt文件,按tab分隔,字段名为(学号,姓名,课程号,班级名称),hdfs目录/tmp/table/student_location中存在student_location.txt文件,按tab分隔,字段名为(学号,省份,城市,区名),对两个hdfs目录的按学号以student为主表,求右外链接操作,输出结果结构按tab分隔后的七个字段为(学号,姓名,课程号,班级名称,省份,城市,区名)。
18、 (两表full join) 在hdfs目录/tmp/table/student中存在student.txt文件,按tab分隔,字段名为(学号,姓名,课程号,班级名称),hdfs目录/tmp/table/student_location中存在student_location.txt文件,按tab分隔,字段名为(学号,省份,城市,区名),对两个hdfs目录的按学号以student为主表,求全外链接操作,输出结果结构按tab分隔后的七个字段为(学号,姓名,课程号,班级名称,省份,城市,区名)。
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
相关文章
- SQL-3(数据筛选)
数据筛选 演出信息管理 WHERE 子句 ①WHERE 子句:根据WHERE子句中的条件筛选数据 此句根据SLECET...FORM....中使用 ②数值筛选 1. 等于: 2. 不等于:<>(部分 DBMS 也支持 !) 3. 小于:< 4. 小于等于&#x…...
2024/4/13 9:24:15 - 报错error: Microsoft Visual C++ 14.0 is required. Get it with “Build Tools for Visual Studio“
文章目录问题描述解决方案VisualCppBuildTools_Full.exe(5251)Visual Studio 2015遇到的坑参考文献问题描述 pip install implicit报错 error: Microsoft Visual C 14.0 is required. Get it with “Build Tools for Visual Studio”: https://visualst…...
2024/4/18 12:41:49 - 迅投QMT最低开户门槛
迅投QMT目前史上最低的开通门槛。 开通指定证券, 然后入金30W左右,存放1天时间。 然后就可以开通迅投QMT的交易权限, 开通权限后,资金可以取出不再限制。 使用迅投QMT不收取任何费用,属于券商提供的接口服…...
2024/4/19 0:18:36 - javaweb进阶-JSP基础
JSP基础 一、入门 可以在jsp中使用不同脚本实现不同功能,主要有以下三个脚本 <%%> 脚本区域 跟平时写java代码要求差不多,不可以定义方法 <% %>输出区域 可以输出变量、对象、方法返回值、表达式结果 <%!%> 声明区域 可以定义成…...
2024/4/19 19:52:08 - 深度解析京东个性化推荐系统
深度解析京东个性化推荐系统 一、题记 为了在于挖掘用户潜在购买需求,缩短用户到商品的距离,提升用户的购物体验。 京东个性化推荐发展史 京东推荐的演进史是绚丽多彩的。京东的推荐起步于2012年,当时的推荐产品甚至是基于规则匹配做的。…...
2024/4/13 9:23:50 - 20220209-CTF MISC - wireshark-1--Wireshark工具的使用--搜索关键词
攻防世界- MISC-进阶区-005-wireshark-1 这题在BUUCTF上也有类似的,补充我的做题记录:https://blog.csdn.net/qq_51550750/article/details/122848297 下面阐述这道攻防世界怎么做; 【1】下载附件并解压: 【2】 用Wireshark打开这…...
2024/4/13 9:23:55 - 数据库基本操作
数据库 数据库的基本概念 更加方便的对开发中的数据进行管理之前通过IO流来对数据进行管理 使用字符流每次读取一行数据将读取到的数据封装为对象将多个对象添加到集合中遍历集合,判断对象是否是所找对象找到对象,对其进行修改使用字符流将集合数据写回…...
2024/4/16 15:25:35 - 解决 -bash: nc: command not found
解决 -bash: nc: command not found问题:解决1.方案12.方案23.问题解决遇到问题:1)问题1问题: 解决 1.方案1 yum install -y nc2.方案2 如果方案1报错或其他可以用方案2步骤: (1)yum erase …...
2024/5/5 5:46:20 - Lnuix安装配置 ---- JDK,Docker,RocketMQ,MySQL,Redis,Nginx,Nacos
安装JDK8安装Docker安装RocketMQ安装RocketMQ管理界面安装MySQL数据库安装Redis数据库安装Nginx代理安装Nacos组件关闭防火墙 一, 安装配置JDK8 1. 上传jdk压缩文件 将文件jdk-8u212-linux-x64.tar.gz上传到 /root 目录 2. 解压缩 执行解压命令 # 将jdk解压到 …...
2024/4/14 4:13:34 - Go开发环境搭建以及Goland的使用
下载 方式一 官网下载Downloads - The Go Programming Language 方式二 中文网Go下载 - Go语言中文网 - Golang中文社区 Windows安装 弹窗 解决:下载1.16.13版本进行安装 测试安装 环境变量:新版本安装包安装的时候会自动添加环境变量 已经添加了Go…...
2024/4/13 9:24:00 - faiss-8: 多种index混合
index可以合成使用 数据准备 import faiss import numpy as np d 512 # 维数 n_data 2000 np.random.seed(0) data [] mu 3 sigma 0.1 for i in range(n_data):data.append(np.random.normal(mu, sigma, d)) data np.array(data).astype(float32)# query …...
2024/4/13 9:23:55 - Yolov5创建并训练自己的数据集,实现口罩佩戴检测
Yolov5创建并训练自己的数据集,实现口罩佩戴检测注意数据集数据集预处理准备训练修改data.yaml开始训练训练结束测试模型文件参考资料注意 需要提前在Anaconda搭建好yolov5的环境,这里不做讲解。 数据集 口罩识别数据集下载 下载这个文件 下载完成后…...
2024/4/13 9:24:40 - 计算机毕业设计java+jsp学科竞赛管理系统(源码+系统+mysql数据库+Lw文档)
项目介绍 随着我学科竞赛是对课堂上所学的理论知识的实践运用,是考察大学生学科基本理论知识和解决实际问题能力的比赛,是高等学校人才培养质量的标志之一,是培养知识-能力-素质协调发展的创新型、高素质人才重要途径,对高校的学…...
2024/4/13 9:24:55 - 《大话数据结构》第四章学习总结(一)
队列 队列的定义 队列是只允许在一端进行插入操作,而在另一端进行删除操作的线性表 队列是一种先进先出 的线性表。允许插入的一端称为队尾,允许删除的一端为对头。 循环队列 队列顺序存储的不足 实现顺序存储需要建立一个数组,所谓入队操…...
2024/4/27 12:47:51 - TensorFlow入门--构建神经网络
第1关:神经元与激活函数 本关任务:编写一个能模拟神经元工作过程的函数。 # -*- coding: utf-8 -*- import tensorflow as tf# 模拟一个 M-P 神经元的工作原理 # input_value 是输入值, 类型为一维的tf.constant # weight 是这个神经元的权重, 类型为一维的tf...
2024/4/19 12:19:32 - MATLAB/SIMULINK搭建分布式驱动电动汽车模型,七自由度整车模型
MATLAB/SIMULINK搭建分布式驱动电动汽车模型,七自由度整车模型,包括横摆,纵向,侧向,四个轮胎四个自由度等等,转弯制动工况,包括abs模型。 资料详细。编号:9360658251918922ZMM00...
2024/4/8 18:02:23 - Flink zookeeper HA 实现分析
Flink zookeeper HA 实现分析 Zookeeper HA相关配置 ## 使用zk做HA high-availability: zookeeper## zk地址 high-availability.zookeeper.quorum: node1:2181,node2:2181,node3:2181## flink在zk下的工作路径 high-availability.zookeeper.path.root: /flink## 任务所在的HA…...
2024/4/13 9:25:00 - 【转载】Python3 基本数据类型
转载:https://www.runoob.com/python3/python3-data-type.html Python3 基本数据类型 Python 中的变量不需要声明。每个变量在使用前都必须赋值,变量赋值以后该变量才会被创建。 在 Python 中,变量就是变量,它没有类型…...
2024/4/19 18:42:58 - numpy 对二维数组的常用操作
目录 1、提取二维数组的某几列或某几行 2、获取某个范围的数据 3、所有元素求和 4、计算数组中非零元素的个数 5、使用布尔型掩码提取某些行或某些列 6、获取数组的行数或列数 7、获取最后一列(或行)的元素 1、提取二维数组的某几列或某几行 imp…...
2024/4/13 9:24:50 - 20220209-CTF MISC -something_in_image---给文件加上后缀
攻防世界- MISC-进阶区-004–something_in_image–加后缀.txt 下载附件,并解压: 不知道这个badimages是什么东西: 用binwalk分析了一下: 用010 editor打开: 貌似写满了0,没什么特别的 往后翻 又有非00的…...
2024/4/13 9:24:55
最新文章
- 【设计模式】之装饰器模式
系列文章目录 【设计模式】之模板方法模式 【设计模式】之责任链模式 【设计模式】之策略模式 【设计模式】之工厂模式(三种) 前言 今天给大家介绍23种设计模式中的装饰器模式。🌈 一、什么是装饰器模式 装饰器模式(Decora…...
2024/5/5 10:18:08 - 梯度消失和梯度爆炸的一些处理方法
在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言,在此感激不尽。 权重和梯度的更新公式如下: w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...
2024/3/20 10:50:27 - linux进阶篇:磁盘管理(一):LVM逻辑卷基本概念及LVM的工作原理
Linux磁盘管理(一):LVM逻辑卷基本概念及LVM的工作原理 一、传统的磁盘管理 在传统的磁盘管理方案中,如果我们的磁盘容量不够了,那这个时候应该要加一块硬盘,但是新增加的硬盘是作为独立的文件系统存在的,原有的文件系…...
2024/5/5 1:29:39 - 鹅厂实习offer
#转眼已经银四了,你收到offer了吗# 本来都打算四月再投实习了,突然三月初被wxg捞了(一年前找日常实习投的简历就更新了下),直接冲了,流程持续二十多天,结果是运气还不错,应该是部门比…...
2024/5/1 13:19:09 - 【C++】类和对象①(什么是面向对象 | 类的定义 | 类的访问限定符及封装 | 类的作用域和实例化 | 类对象的存储方式 | this指针)
目录 前言 什么是面向对象? 类的定义 类的访问限定符及封装 访问限定符 封装 类的作用域 类的实例化 类对象的存储方式 this指针 结语 前言 最早的C版本(C with classes)中,最先加上的就是类的机制,它构成…...
2024/5/1 13:18:37 - 【外汇早评】美通胀数据走低,美元调整
原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...
2024/5/4 23:54:56 - 【原油贵金属周评】原油多头拥挤,价格调整
原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...
2024/5/4 23:54:56 - 【外汇周评】靓丽非农不及疲软通胀影响
原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...
2024/5/4 23:54:56 - 【原油贵金属早评】库存继续增加,油价收跌
原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...
2024/5/4 23:55:17 - 【外汇早评】日本央行会议纪要不改日元强势
原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...
2024/5/4 23:54:56 - 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响
原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...
2024/5/4 23:55:05 - 【外汇早评】美欲与伊朗重谈协议
原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...
2024/5/4 23:54:56 - 【原油贵金属早评】波动率飙升,市场情绪动荡
原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...
2024/5/4 23:55:16 - 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试
原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...
2024/5/4 23:54:56 - 【原油贵金属早评】市场情绪继续恶化,黄金上破
原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...
2024/5/4 18:20:48 - 【外汇早评】美伊僵持,风险情绪继续升温
原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...
2024/5/4 23:54:56 - 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势
原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...
2024/5/4 23:55:17 - 氧生福地 玩美北湖(上)——为时光守候两千年
原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...
2024/5/4 23:55:06 - 氧生福地 玩美北湖(中)——永春梯田里的美与鲜
原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...
2024/5/4 23:54:56 - 氧生福地 玩美北湖(下)——奔跑吧骚年!
原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...
2024/5/4 23:55:06 - 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!
原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...
2024/5/5 8:13:33 - 「发现」铁皮石斛仙草之神奇功效用于医用面膜
原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...
2024/5/4 23:55:16 - 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者
原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...
2024/5/4 23:54:58 - 广州械字号面膜生产厂家OEM/ODM4项须知!
原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...
2024/5/4 23:55:01 - 械字号医用眼膜缓解用眼过度到底有无作用?
原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...
2024/5/4 23:54:56 - 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...
解析如下:1、长按电脑电源键直至关机,然后再按一次电源健重启电脑,按F8健进入安全模式2、安全模式下进入Windows系统桌面后,按住“winR”打开运行窗口,输入“services.msc”打开服务设置3、在服务界面,选中…...
2022/11/19 21:17:18 - 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。
%读入6幅图像(每一幅图像的大小是564*564) f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...
2022/11/19 21:17:16 - 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...
win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面,在等待界面中我们需要等待操作结束才能关机,虽然这比较麻烦,但是对系统进行配置和升级…...
2022/11/19 21:17:15 - 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...
有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows,请勿关闭计算机”的提示,要过很久才能进入系统,有的用户甚至几个小时也无法进入,下面就教大家这个问题的解决方法。第一种方法:我们首先在左下角的“开始…...
2022/11/19 21:17:14 - win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...
置信有很多用户都跟小编一样遇到过这样的问题,电脑时发现开机屏幕显现“正在配置Windows Update,请勿关机”(如下图所示),而且还需求等大约5分钟才干进入系统。这是怎样回事呢?一切都是正常操作的,为什么开时机呈现“正…...
2022/11/19 21:17:13 - 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...
Win7系统开机启动时总是出现“配置Windows请勿关机”的提示,没过几秒后电脑自动重启,每次开机都这样无法进入系统,此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一:开机按下F8,在出现的Windows高级启动选…...
2022/11/19 21:17:12 - 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...
有不少windows10系统用户反映说碰到这样一个情况,就是电脑提示正在准备windows请勿关闭计算机,碰到这样的问题该怎么解决呢,现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法:1、2、依次…...
2022/11/19 21:17:11 - 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...
今天和大家分享一下win7系统重装了Win7旗舰版系统后,每次关机的时候桌面上都会显示一个“配置Windows Update的界面,提示请勿关闭计算机”,每次停留好几分钟才能正常关机,导致什么情况引起的呢?出现配置Windows Update…...
2022/11/19 21:17:10 - 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...
只能是等着,别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚,只能是考虑备份数据后重装系统了。解决来方案一:管理员运行cmd:net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...
2022/11/19 21:17:09 - 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?
原标题:电脑提示“配置Windows Update请勿关闭计算机”怎么办?win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢?一般的方…...
2022/11/19 21:17:08 - 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...
关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!关机提示 windows7 正在配…...
2022/11/19 21:17:05 - 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...
钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...
2022/11/19 21:17:05 - 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...
前几天班里有位学生电脑(windows 7系统)出问题了,具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面,长时间没反应,无法进入系统。这个问题原来帮其他同学也解决过,网上搜了不少资料&#x…...
2022/11/19 21:17:04 - 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...
本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法,并在最后教给你1种保护系统安全的好方法,一起来看看!电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中,添加了1个新功能在“磁…...
2022/11/19 21:17:03 - 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...
许多用户在长期不使用电脑的时候,开启电脑发现电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机。。.这要怎么办呢?下面小编就带着大家一起看看吧!如果能够正常进入系统,建议您暂时移…...
2022/11/19 21:17:02 - 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...
配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!配置windows update失败 还原更改 请勿关闭计算机&#x…...
2022/11/19 21:17:01 - 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...
不知道大家有没有遇到过这样的一个问题,就是我们的win7系统在关机的时候,总是喜欢显示“准备配置windows,请勿关机”这样的一个页面,没有什么大碍,但是如果一直等着的话就要两个小时甚至更久都关不了机,非常…...
2022/11/19 21:17:00 - 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...
当电脑出现正在准备配置windows请勿关闭计算机时,一般是您正对windows进行升级,但是这个要是长时间没有反应,我们不能再傻等下去了。可能是电脑出了别的问题了,来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...
2022/11/19 21:16:59 - 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...
我们使用电脑的过程中有时会遇到这种情况,当我们打开电脑之后,发现一直停留在一个界面:“配置Windows Update失败,还原更改请勿关闭计算机”,等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢࿰…...
2022/11/19 21:16:58 - 如何在iPhone上关闭“请勿打扰”
Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...
2022/11/19 21:16:57