提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档

文章目录

  • 前言
  • 一、决策树原理
  • 二、实验过程
    • 2.1 最优决策属性的选择
    • 2.1.1 信息熵
    • 2.1.2 信息增益
    • 2.1.3 信息增益率
    • 2.1.4 基尼指数
    • 2.2 准备数据集
    • 2.3 创建决策树
    • 2.4 保存和读取决策树
    • 2.5 绘制决策树
    • 2.6 使用决策树进行分类
    • 2.7 创建的决策树结果
  • 总结



前言

提示:通过自建数据集,创建决策树对天气和身体状态是否适合去运动进行预测。


提示:以下是本篇文章正文内容,下面案例可供参考


一、决策树原理

        决策树是一个预测判别模型。它代表的是对象属性与对象值之间的一种映射关系。树中每个节点表示某个对象,每个分支路径代表某个可能的属性值,每个叶结点则对应从根节点到该叶节点所经历的路径所表示的对象的值。.决策树是从训练数据中学习得出一个树状模型,通过做出一系列决策(选择)来对数据进行划分,这类似于针对一系列问题进行选择。决策树的决策过程就是从根节点开始,测试待分类项中对应的特征属性,并按照其值选择输出分支,直到叶子结点,将叶子结点存放的类别作为决策结果。属于监督学习算法,属性选择的度量是决策树的关键。

决策树由结点有向边组成。结点有两种类型:内部结点叶节点。内部结点表示一个特征或属性,叶节点表示一个分类结果。
例如:根据声音和头发判断一个人的性别。

测试员A:先根据头发判断,再根据声音判断,头发长、声音粗为男生,头发长、声音细为女生;头发短、声音粗为男生,头发短、声音细为女生;于是得到如下决策树。

测试员B:首先判断声音,声音细是女生,声音粗、头发短是男生,声音粗、头发长是女生。得到如下决策树:

 这时我们发现两种决策树都可以用来判断,但是哪种最优呢?这就要度量那个特征获得的收益最高,就将他作为最佳划分特征。


二、实验过程


2.1.最优决策属性的选择

一般而 言,随着划分过程不断进行,我们希望决策树的分支结点 所包含的样本尽可能属于同一类别,即结点的“纯度 ”(purity)越来越高。在实验中我通过三种方法对属性进行划分。


2.1.1信息熵

划分数据集的大原则是:将无序的数据变得有序。如果我们能测量数据的复杂度,对比按

 信息熵”是度量样本集合纯度最常用的一种指标,假定 当前样本集合D中第k类样本所占的比例为pk (K=1, 2, ..., |y|)

,则D的信息熵定义为: 

Ent(D)的值越小,则D的纯度越高

计算信息熵时约定:若p = 0,则plog2p=0

• Ent(D)的最小值为0,最大值为log2|y|

例如:

 计算信息熵的代码如下:

#计算给定数据集的香农熵
def calcShannonEnt(dataSet):'''计算给定数据集的香农熵:param dataSet: 数据集:return: 香农熵'''# 返回数据集的行数,样本容量numEntries = len(dataSet)# 保存每个标签出现出现次数的字典labelCounts = {}#对每组特征向量进行统计for featVec in dataSet:#提取标签(label)信息currentLabel = featVec[-1]#如果存在标签没有放入统计次数的字典,则将其添加if currentLabel not in labelCounts.keys():labelCounts[currentLabel] = 0#label计数labelCounts[currentLabel] += 1#香农熵赋初值shannonEnt = 0.0for key in labelCounts:#选择该标签的概率prob = float(labelCounts[key])/numEntriesshannonEnt -=prob * log(prob,2)return shannonEnt

2.1.2信息增益(代表算法:ID3)

信息增益表示两个信息熵的差值。信息增益计算如下:

 

在上例中,属性A1对样本集D进行划分所得的信息增益为:

Gain(D,A1) = H(D) - [H(D|A1=青年)*5/15+H(D|A1=中年)*5/15+H(D|A1=老年)*5/15] 

=0.971-(0.971*0.33+0.971*0.33+0.7219*0.33)= 0.093

通过信息增益来划分数据属性的代码:

#按照给定特征划分数据集
def splitDataSet(dataSet,axis,value):'''函数说明:按照给定特征划分数据集:param dataSet: 待划分的数据集:param axis:划分数据集的特征:param value:特征的返回值:return:划分所得的数据集'''retDataSet = []                                  #创建返回的数据集列表for featVec in dataSet:                          #遍历数据集if featVec[axis] == value:reducedFeatVec = featVec[:axis]          #去掉axis特征reducedFeatVec.extend(featVec[axis+1:])  #将符合条件的添加到返回列表retDataSet.append(reducedFeatVec)return retDataSet                                #返回划分后的数据集#选择最好的数据集划分方式
def chooseBestFeatureToSplit(dataSet):'''函数说明:选择最优特征:return: 信息增益最大(最优)特征的索引值'''#特征数量,-1是因为最后一列是类别标签numFeatures = len(dataSet[0]) - 1#计算数据集的原始香农熵baseEntropy = calcShannonEnt(dataSet)bestInfoGain = 0.0                       #信息增益赋初值0bestFeature = -1                         #最优特征的索引值for i in range(numFeatures):#获取dataSet的第i个所有特征存到featList中featList = [example[i] for example in dataSet]#print(featList)  #每个特征的15项特征值列表#创建set集合{},元素不可重复uniqueVals = set(featList)newEntropy = 0.0for value in uniqueVals:#subDataSet划分后的子集subDataSet = splitDataSet(dataSet,i,value)#计算子集的概率=子集个数/整个训练样本数prob = len(subDataSet)/float(len(dataSet))#计算香农熵newEntropy += prob * calcShannonEnt(subDataSet)#计算信息增益infoGain = baseEntropy - newEntropy#print("第%d个特征的增益为%.3f" %(i,infoGain))#C4.5算法:计算增益比(信息增益率)#infoGain2 = (baseEntropy - newEntropy)/baseEntropyif (infoGain >bestInfoGain):bestInfoGain = infoGain      #更新信息增益,找到最大的信息增益bestFeature = i              #记录信息增益最大的特征的索引值return bestFeature                   #返回信息增益最大的特征的索引值

 2.1.3信息增益率(代表算法:C4.5)

信息增益对可取值数目较多的属性有所偏好他十分偏向于拥有更多选择的决策属性(如果我们将数据编号拿来也作为决策属性毫无疑问他将作为第一优先级的决策属性)这也导致了部分情况下决策树正确率受到了影响,那么学者又提出了一个新的数据划分方法–信息增益率(Gain ratio)。也就是是在原有信息增益的情况下我们多考虑一个对于属性内部也计算一次信息熵。

定义增益率如下:

 属性a的可能取值数 目越多(即V越大),则IV(a)的值通常就越大。

 在上例中,年龄(青年,中年,老年)

 IV(年龄,v=3) =  -(5/15*log5/15+5/15*log5/15+5/15*log5/15)

Gain_ratio(D,年龄) = Gain(D,年龄) / IV(年龄,v=3)

增益率准则对可取值数目较少的属性有所偏好,取信息增益率最高的属性作为划分属性

通过信息增益来划分数据属性的代码:
def calcShannonEnt1(dataSet, method = 'none'):numEntries = len(dataSet)labelCount = {}for feature in dataSet:if method =='prob': #当参数为prob时转而计算信息增益率label =  featureelse:label = feature[-1]if label not in labelCount.keys():labelCount[label]=1else:labelCount[label]+=1shannonEnt = 0.0for key in labelCount:numLabels = labelCount[key]prob = numLabels/numEntriesshannonEnt -= prob*(log(prob,2))return shannonEnt
#信息增益率
def chooseBestFeatureToSplit2(dataSet): #使用信息增益率进行划分数据集numFeatures = len(dataSet[0]) -1 #最后一个位置的特征不算baseEntropy = calcShannonEnt(dataSet) #计算数据集的总信息熵bestInfoGain = 0.0bestFeature = -1for i in range(numFeatures):featList = [example[i] for example in dataSet]newEntropyProb = calcShannonEnt1(featList, method='prob') #计算内部信息增益率uniqueVals = set(featList)newEntropy = 0.0for value in uniqueVals:# 通过不同的特征值划分数据子集subDataSet = splitDataSet(dataSet, i, value)prob = len(subDataSet)/float(len(dataSet))newEntropy += prob *calcGini(subDataSet)newEntropy  = newEntropy*newEntropyProbinfoGain = baseEntropy - newEntropy #计算每个信息值的信息增益if(infoGain > bestInfoGain):bestInfoGain = infoGainbestFeature = ireturn bestFeature #返回信息增益的最佳索引

 2.1.4基尼指数(代表算法:C4.5)

分类问题中,假设DK个类,样本点属于第k类的概率为Pk, 则概率 分布的基尼值定义为:

 反映了随机抽取两个样本,其类别标记不一致的概率。

 Gini(D)越小,数据集D的纯度越高;

 给定数据集D,属性a的基尼指数定义为:

基尼指数反映得是分支内任意两个样本分类不一致得情况,所以基尼指数越小,分类越纯,所以我们选择基尼指数最小的属性作为最优划分属性

 在上例中,计算年龄的基尼指数:总样本数D=15,

 年龄=青年时,样本数为5,false:3,  agree:2    ------> gini1= 1-[(3/5)^2+(2/5)^2] 

 年龄=中年时,样本数为5,false:2,  agree:3    ------> gini2= 1-[(2/5)^2+(3/5)^2] 

 年龄=老年时,样本数为5,false:1,  agree:4    ------> gini3= 1-[(1/5)^2+(4/5)^2] 

  gini(年龄) = 5/15 *gini1 + 5/15* gini2 +5/15*gini3

通过基尼指数来划分数据属性的代码:
#基尼指数
def calcGini(dataset):feature = [example[-1] for example in dataset]uniqueFeat = set(feature)sumProb =0.0for feat in uniqueFeat:prob = feature.count(feat)/len(uniqueFeat)sumProb += prob*probsumProb = 1-sumProbreturn sumProb
def chooseBestFeatureToSplit3(dataSet): #使用基尼系数进行划分数据集numFeatures = len(dataSet[0]) -1 #最后一个位置的特征不算bestInfoGain = np.InfbestFeature = 0.0for i in range(numFeatures):featList = [example[i] for example in dataSet]uniqueVals = set(featList)newEntropy = 0.0for value in uniqueVals:# 通过不同的特征值划分数据子集subDataSet = splitDataSet(dataSet, i, value)prob = len(subDataSet)/float(len(dataSet))newEntropy += prob *calcGini(subDataSet)infoGain = newEntropyif(infoGain < bestInfoGain): # 选择最小的基尼系数作为划分依据bestInfoGain = infoGainbestFeature = ireturn bestFeature #返回决策属性的最佳索引

2.2 准备数据集

自己编的一些数据,存储在.xlsx文件中,有六个属性标签:天气,温度,适度,风况,场地,心情好坏,如下:

用于验证决策树的预测数据:

 

对读入数据进行处理的代码:

import pandas as pdmyData = pd.read_excel('D:\python\RRJ\pycharm项目\pythonProject1\digits\TestData2.xlsx',header = None)print(myData.head())myData = np.array(myData).tolist()for d in myData:for i in range(len(d)):d[i] = d[i].strip()print(myData)Labels = ['天气', '温度', '湿度', '风况', '场地','心情好坏']

2.3 创建决策树 

#创建决策树
def createTree(dataSet,labels):'''函数说明:创建决策树:param dataSet: 训练数据集:param labels: 分类属性标签:return:'''#取分类标签classList = [example[-1] for example in dataSet]#特征可能存在多个属性,需要判断一下,如果类别完全相同则停止继续划分if classList.count(classList[0]) == len(classList):return classList[0]if len(dataSet[0]) == 1:return majorityCnt(classList)                 #遍历完所有特征时返回出现次数最多的类标签bestFeat = chooseBestFeatureToSplit(dataSet)      #选择最优特征bestFeatLabel = labels[bestFeat]                  #最优特征的类标签myTree = {bestFeatLabel:{}}                       #根据最有特征的标签生成树#del(labels[bestFeat])                            #删除已经使用特征标签#得到训练集中所有最优特征的属性值featValues = [example[bestFeat] for example in dataSet]#去掉重复的属性值uniqueVals = set(featValues)#遍历特征,创建决策树for value in uniqueVals:subLabels = labels[:]myTree[bestFeatLabel][value] = createTree(splitDataSet(dataSet, bestFeat, value),subLabels)return myTree

2.4 保存和读取决策树

构造决策树是很耗时的任务,尤其是数据集很大的时候,将会耗费大量的计算时间,因此为了节省时间,在每次执行分类时调用已创建决策树,用如下代码保存:


#存储决策树
'''
:param inputTree:已经生成的决策树 
:param filename: 决策树的存储文件名
'''
def storeTree(inputTree, filename):import picklefw = open(filename, 'wb')pickle.dump(inputTree, fw)fw.close()
#读取决策树
def grabTree(filename):import picklefr = open(filename)return pickle.load(fr)  #决策树字典

2.5 绘制决策树

#绘制决策树
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif']=['SimHei']decisionNode = dict(boxstyle="sawtooth", fc="0.8")   #设置结点格式
leafNode = dict(boxstyle="round4", fc="0.8")         #设置叶节点格式
arrow_args = dict(arrowstyle="<-")                   #设置箭头格式#获取决策树叶子结点数目
def getNumLeafs(myTree):'''函数说明:获取叶子结点数目:param myTree: 决策树:return: 决策树叶子结点数目'''numLeafs = 0                                     #初始化叶子结点#firstStr = myTree.keys()[0]firstStr = next(iter(myTree))                    #获取结点属性secondDict = myTree[firstStr]                    #获取下一组字典for key in secondDict.keys():#测试该结点是否为字典,如果不是字典,代表此结点为叶子结点if type(secondDict[key]).__name__=='dict':numLeafs += getNumLeafs(secondDict[key])else:   numLeafs +=1return numLeafs#获取决策树的深度
def getTreeDepth(myTree):'''函数说明:获取决策树的深度:param myTree:决策树:return:决策树层数'''maxDepth = 0                              #初始化决策树层数firstStr = next(iter(myTree))secondDict = myTree[firstStr]for key in secondDict.keys():if type(secondDict[key]).__name__=='dict':thisDepth = 1 + getTreeDepth(secondDict[key])else:   thisDepth = 1if thisDepth > maxDepth:maxDepth = thisDepth              #更新树的层数return maxDepth#绘制结点
'''函数说明:绘制结点:param nodeTxt: 结点名:param centerPt: 文本位置:param parentPt: 标注的箭头位置:param nodeType: 结点格式'''
def plotNode(nodeTxt, centerPt, parentPt, nodeType):createPlot.ax1.annotate(nodeTxt, xy=parentPt,  xycoords='axes fraction',xytext=centerPt, textcoords='axes fraction',va="center", ha="center", bbox=nodeType, arrowprops=arrow_args)#标注有向边属性值
'''函数说明:标注有向边属性值:param cntrPt,parentPt: 用于计算标注位置:param txtString: 标注的内容'''
def plotMidText(cntrPt, parentPt, txtString):xMid = (parentPt[0]-cntrPt[0])/2.0 + cntrPt[0]yMid = (parentPt[1]-cntrPt[1])/2.0 + cntrPt[1]createPlot.ax1.text(xMid, yMid, txtString, va="center", ha="center", rotation=30)#
'''函数说明:绘制决策树:param myTree: 决策树(字典):param parentPt: 标注的内容:param nodeTxt: 结点名
'''
def plotTree(myTree, parentPt, nodeTxt):#获取决策树叶结点数目,决定了树的宽度numLeafs = getNumLeafs(myTree)#获取决策树层数depth = getTreeDepth(myTree)#获取下一个字典firstStr = next(iter(myTree))#中心位置cntrPt = (plotTree.xOff + (1.0 + float(numLeafs))/2.0/plotTree.totalW, plotTree.yOff)#标注有向边属性值plotMidText(cntrPt, parentPt, nodeTxt)#绘制结点plotNode(firstStr, cntrPt, parentPt, decisionNode)#下一个字典,继续绘制子结点secondDict = myTree[firstStr]plotTree.yOff = plotTree.yOff - 1.0/plotTree.totalDfor key in secondDict.keys():# 测试该结点是否为字典,如果不是字典,代表此结点为叶子结点if type(secondDict[key]).__name__=='dict':#不是叶子结点,递归调用继续绘制plotTree(secondDict[key],cntrPt,str(key))else:      #是叶子结点则进行绘制,标注有向边plotTree.xOff = plotTree.xOff + 1.0/plotTree.totalWplotNode(secondDict[key], (plotTree.xOff, plotTree.yOff), cntrPt, leafNode)plotMidText((plotTree.xOff, plotTree.yOff), cntrPt, str(key))plotTree.yOff = plotTree.yOff + 1.0/plotTree.totalD#创建绘制面板
def createPlot(inTree):'''函数说明:创建绘制面板:param inTree: 决策树(字典)'''fig = plt.figure(1, facecolor='white')            #创建figfig.clf()                                         #清空figaxprops = dict(xticks=[], yticks=[])createPlot.ax1 = plt.subplot(111, frameon=False, **axprops)     #去掉x,y轴plotTree.totalW = float(getNumLeafs(inTree))      #决策树叶子结点数目plotTree.totalD = float(getTreeDepth(inTree))     #决策树层数plotTree.xOff = -0.5/plotTree.totalW; plotTree.yOff = 1.0;   #x偏移plotTree(inTree, (0.5,1.0), '')                   #绘制决策树plt.show()

2.6 使用决策树进行分类

分类函数:

#使用决策树的分类函数
'''
函数说明:使用决策树分类
:param inputTree: 已经生成的决策树
:param featLabels: 存储选择的最优特征
:param testVec: 测试数据列表,顺序对应最优特征标签
:return: 分类结果
'''
def classify(inputTree,featLabels,testVec):#firstStr = next(iter(inputTree))            #获取决策树结点firstStr = list(inputTree.keys())[0]#print(firstStr)secondDict = inputTree[firstStr]            #下一个字典featIndex = featLabels.index(firstStr)      #获取存储选择的最优特征标签的索引classLabel = -1for key in secondDict.keys():if testVec[featIndex] == key:# 测试该结点是否为字典,如果不是字典,代表此结点为叶子结点if type(secondDict[key]).__name__=='dict':classLabel = classify(secondDict[key],featLabels,testVec)else:classLabel = secondDict[key]# 标记classLabel为-1当循环过后若仍然为-1,表示未找到该数据对应的节点则我们返回他兄弟节点出现次数最多的类别if classLabel == -1:return getLeafBestCls(inputTree)else:return classLabel#求该节点下所有叶子节点的列表
def getLeafscls(myTree, clsList):numLeafs = 0firstStr = list(myTree.keys())[0]secondDict = myTree[firstStr]for key in secondDict.keys():if type(secondDict[key]).__name__ == 'dict':clsList =getLeafscls(secondDict[key],clsList)else:clsList.append(secondDict[key])return clsList#返回出现次数最多的类别
def getLeafBestCls(myTree):clsList = []resultList = getLeafscls(myTree,clsList)return max(resultList,key = resultList.count)

2.7 创建的决策树结果

主程序:

if __name__ == '__main__':'''myDat,labels = createDataSet()print(myDat)print(labels)print("原始数据信息香农熵为:",end=' ')print(calcShannonEnt(myDat))print("最好的数据划分的特征索引值:",end=' ')print(chooseBestFeatureToSplit(myDat))#myTree = treesPlotter.retrieveTree(0)myTree = createTree(myDat,labels)treesPlotter.createPlot(myTree)             #没有坐标轴标签#myTree['no surfacing'][3] = 'maybe'print(myTree)treesPlotter.createPlot(myTree)print('测试分类结果为:',end='')#print(classify(myTree,labels,['晴天','中温','中湿','无风']))'''import pandas as pdmyData = pd.read_excel('D:\python\RRJ\pycharm项目\pythonProject1\digits\TestData2.xlsx',header = None)print(myData.head())myData = np.array(myData).tolist()for d in myData:for i in range(len(d)):d[i] = d[i].strip()print(myData)Labels = ['天气', '温度', '湿度', '风况', '场地','心情好坏']myTree = createTree(myData, Labels)storeTree(storeTree, 'saveTree.txt')  #将决策树存储进入txt文件treesPlotter.createPlot(myTree)print("预测结果:")print(classify(myTree, Labels, ['多云', '中温', '中湿', '无风', '室内','心情好']))dataSet2 = [['晴朗', '高温', '高湿', '无风', '室外', '心情好'],['晴朗', '中温', '高湿', '有风', '室外', '心情好'],['晴朗', '高温', '低湿', '无风', '室内', '心情差'],['阴天', '中温', '高湿', '无风', '室内', '心情好'],['阴天', '低温', '低湿', '有风', '室外', '心情差'],['阴天', '低温', '高湿', '有风', '室外', '心情差'],['雨天', '低温', '中湿', '有风', '室外', '心情好'],['雨天', '中温', '低湿', '有风', '室内', '心情好'],['多云', '中温', '高湿', '有风', '室外', '心情差'],['多云', '中温', '低湿', '无风', '室外', '心情差']]for dataVet in dataSet2:print(classify(myTree,Labels,dataSet2))

用信息增益创建的决策树

预测结果:

对比预测数据的正确率:40%

用信息增益率创建的决策树

 

用基尼指数创建的决策树

预测结果正确率都是40%,可见决策树创建存在问题,通过用书上提供简单数据测试发现是我数据集的问题,数据集由于是自己编的存在太多主观性,一致决策结果一半false。 

导入网上下载的莺尾花数据进行测试:

信息增益预测结果:

 

正确率:4/15*100%=28.6%

信息增益率,基尼指数预测结果上同:所以是代码编写出现问题,需要进一步改进。

该处使用的url网络请求的数据。



总结

在这次实验中由于是自己编的数据集所以使实验结果不理想,无法比较信息增益,信息增益率,基尼指数三种划分方式的对数据划分的优劣,以及比较得出哪种方式更适合用来建决策树。

信息增益的缺点:

信息增益准则对可取值数目较多的特征有所偏好,类似"编号”的特征其信息增益接近于1;

只能用于处理离散分布的特征;,没有考虑缺失值。

查看全文
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

相关文章

  1. Jupyter Notebooks是什么

    Jupyter Notebooks是什么 1、Jupyter Notebooks是什么 Jupyter Notebooks是一款非常实用的工具&#xff0c;不仅可以部署到服务器上&#xff0c;还可以和GitHub连接实现共享的功能。 2、安装pip方法 #Linux and OSX ​ pip install -U pip setuptools #Windows ​ pytho…...

    2024/4/20 13:46:41
  2. 解决vscode格式化和eslintrc的冲突

    在根目录中创建一个.prettierrc文件 第一个语句的意思是移除格式化自动添加的分号 第二个语句的意思是字符串采用单引号。 此语句用来禁用在方法名后加空格的eslinc的要求...

    2024/4/20 13:46:39
  3. 了解JavaScript对象(Object)

    目录 对象 1.1&#xff0c;什么是对象 1.2&#xff0c;为什么需要对象 创建对象的三种方式 2.1 利用字面量创建对象 对象的调用 变量、属性、函数、方法的区别 2.2 利用new Object创建对象 2.3 利用构造函数创建对象 为什么需要构造函数 &#xff1f; 2.4 构造函数和对象 三…...

    2024/4/20 13:46:39
  4. 【数据结构与算法】data structures algorithms 第三章:线性数据结构

    数据结构与算法系列文章目录 目录数据结构与算法系列文章目录一、线性表及其实现1、多项式的表示方法1&#xff1a;顺序存储结构直接表示方法2&#xff1a;顺序存储结构表示非零项方法3&#xff1a;链表结构存储非零项2、什么是线性表3、线性表的顺序存储实现3.1初始化&#xf…...

    2024/4/28 15:58:46
  5. 导出表结构到excel

    SELECT表名 Case When A.colorder1 Then D.name Else End,字段序号 A.colorder,字段名 A.name,字段说明 isnull(H.[value],),标识 Case When COLUMNPROPERTY( A.id,A.name,IsIdentity)1 Then √Else End,主键 Case When exists(SELECT 1 FRO…...

    2024/4/20 13:46:37
  6. 01-【分析】神策系统的拆解与分析

    大家好 我是罗文 当前行业里有一句正确的废话&#xff1a;数据分析很重要&#xff0c;数据驱动很重要。 但是看了很多围绕这些话写的文章&#xff0c;具体咋做却很少有介绍&#xff0c;看的云里雾里&#xff0c;不够落地&#xff0c;关于神策的思路和实践经验&#xff0c;我会…...

    2024/4/20 13:46:36
  7. 日常任务-07-技术-12.Mybatis中“CDATA”的用法

    被<![CDATA[]]>这个标记所包含的内容将表示为纯文本&#xff0c;比如<![CDATA[<]]>表示文本内容“<”。   此标记用于xml文档中&#xff0c;我们先来看看使用转义符的情况。我们知道&#xff0c;在xml中&#xff0c;”<”、”>”、”&”等字符是…...

    2024/4/20 13:46:34
  8. Docker学习笔记——Docker基础

    一、Dokcer简介 官方介绍&#xff1a; ​ Docker 是一个开源的应用容器引擎&#xff0c;基于Go 语言并遵从 Apache2.0 协议开源。 ​ Docker 可以让开发者打包他们的应用以及依赖包到一个轻量级、可移植的容器中&#xff0c;然后发布到任何流行的 Linux 机器上&#xff0c;也…...

    2024/4/20 13:46:33
  9. 关于等保2.0

    文章参考&#xff1a;http://www.rising.com.cn/2019/db2/#_Toc12535289 网络安全等级保护2.0标准解读 (cyberpolice.cn) 什么是等级保护&#xff1f; 网络安全等级保护是指对国家秘密信息、法人和其他组织及公民的专有信息以及公开信息和存储、传输、处理这些信息的信息系统…...

    2024/4/21 17:46:49
  10. IDEA设置 debug查看时显示完整数据

    示例查看ArrayList时能够看到完整的数据 如下设置idea&#xff0c;便于学习源码时debug查看...

    2024/5/3 23:18:17
  11. 小白学java——循环结构do...while

    do…while循环的使用 do…while循环是先执行后判断&#xff0c;所以语句至少执行一次。do…while结构为 do{执行语句}while(条件表达式)&#xff1b; 例&#xff1a; package Circle;public class DoWhile {public static void main(String[] args) {int a 6;do {System.out…...

    2024/4/21 17:46:47
  12. SVN 下载与安装

    一、下载SVN 。 官网地址&#xff1a;VisualSVN | Download TortoiseSVN 二、下载好后&#xff0c;打开安装。 右击电脑&#xff0c;出现 SVN 的内容&#xff0c; 到此&#xff0c;安装完成了。 三、因为当前是英文版本&#xff0c;可以下载中文语言包来汉化。 中文语言包&…...

    2024/4/21 17:46:48
  13. Vue里$refs与$parent用法及练习

    Vue里$refs用法 用法一&#xff1a;ref加在普通的元素上&#xff0c;用this.$refs.name获取到的是dom元素用法二&#xff1a;ref加在组件上&#xff0c;用this.$refs.name获取到的是组件实例&#xff0c;可以使用组价的所有方法 $parent用法 通过this.$parent可以访问到当前…...

    2024/4/21 17:46:46
  14. python while 语句 基础认知

    code 正确输入 输出Hello useer 错误输入几次以下&#xff0c;输出code is wrong , re-enter the code 错误输入达到几次 输出The code is incorrect a1 while a< 2 : code input("code:") if code "0620": print("Hello useer") break e…...

    2024/4/21 17:46:45
  15. 7-1 顺序存储的前序遍历 (20 分)

    给你一个采用顺序存储结构的非空二叉树&#xff0c;请你设计一个算法求出它的前序遍历。 输入格式: 输入数据有多组&#xff0c;每组的第一行为一个正数n,表示该二叉树的节点个数。 接下来有n个字符&#xff0c;表示各个位置上的元素&#xff0c;当字符为#时表示当前节点为空…...

    2024/4/21 17:46:43
  16. 狼山会心法库:掌控「一体共振律」,让你心想事成,梦想成真的秘密

    第1节&#xff1a;普通人为什么总感觉诸事不顺&#xff1f; 我相信绝大部分人&#xff0c;都是普通人&#xff0c;包括我们自己&#xff0c;既然是普通人&#xff0c;就一定有各种各样的烦恼和苦楚&#xff0c;最如影随形的一种感受就是时不时的总是感觉自己诸事不顺。 好像…...

    2024/4/21 17:46:42
  17. 将Windows下的vscode终端改成Anaconda的Command Prompt

    菜单的“文件->首选项->设置”&#xff0c;搜索Terminal 打开后添加如下内容 {"explorer.confirmDelete": false,"editor.fontSize": 14,"terminal.integrated.profiles.windows": {"PowerShell -NoProfile": {"source&q…...

    2024/4/21 17:46:41
  18. 【无码专区4】幸运数字4(折半搜索+计数+结论)

    因为只有std&#xff0c;没有自我实现&#xff0c;所以是无码专区 problem 给定 nnn 个数&#xff0c;选择一个子集然后加起来&#xff0c;统计十进制结果数位表示中有多少个 444。 对所有的 2n2^n2n 种方案&#xff0c;都统计一边&#xff0c;计算总和。 n≤40,ai≤4444444…...

    2024/4/21 17:46:40
  19. 创建死锁案例

    一、 1、创建公共两个对象 2、创建两个线程 线程1先获得一个对象&#xff0c;睡眠等待 然后再获得另外一个对象 线程2也获得一个对象&#xff0c;睡眠等待 然后再获得另外一个对象 package Test;/***/public class MyThread {public static void main(String[] args) {Object …...

    2024/4/21 17:46:39
  20. uniapp 中安装使用 uView ui 框架,可视化搭建页面效率高

    转载二(uniapp页面速成提效工具) uniapp uview ui 可视化,完全自由拖拽,一键生成flex代码网站: http://aicode.shagua.wiki/uni/index.html#/ 部分操作(一套代码,h5端和微信端通用,其他没有测试):...

    2024/4/21 17:46:38

最新文章

  1. Go协程的底层原理(图文详解)

    为什么要有协程 什么是进程 操作系统“程序”的最小单位进程用来占用内存空间进程相当于厂房&#xff0c;占用工厂空间 什么是线程 进程如果比作厂房&#xff0c;线程就是厂房里面的生产线&#xff1a; 每个进程可以有多个线程线程使用系统分配给进程的内存&#xff0c;线…...

    2024/5/4 0:31:48
  2. 梯度消失和梯度爆炸的一些处理方法

    在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言&#xff0c;在此感激不尽。 权重和梯度的更新公式如下&#xff1a; w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...

    2024/3/20 10:50:27
  3. centos后台运行使用nohup命令

    nohup ./my_script.sh & nohup命令运行后如何关闭 nohup 命令用于在用户注销系统后继续运行指定的命令。如果您想关闭使用 nohup 运行的进程&#xff0c;您可以使用 kill 命令。 首先&#xff0c;您需要找到 nohup 运行的进程的进程ID&#xff08;PID&#xff09;。可以使…...

    2024/5/1 16:06:39
  4. Stable Diffusion 本地部署教程

    Stable Diffusion 是一个开源的本地部署的软件&#xff0c;用于在本地网络中进行消息传递和同步。下面是 Stable Diffusion 的本地部署教程&#xff1a; 安装稳定扩散软件&#xff1a;首先&#xff0c;您需要从 Stable Diffusion 的官方网站或 GitHub 页面上下载并安装 Stable …...

    2024/5/2 9:10:34
  5. CSS使用clip-path实现元素动画

    前言&#xff1a; 在日常开发当中&#xff0c;如果想要开发多边形&#xff0c;一般都需要多个盒子或者伪元素的帮助&#xff0c;有没有一直办法能只使用一个盒子实现呢&#xff1f; 有的&#xff1a;css裁剪 目录 前言&#xff1a; clip-path到底是什么&#xff1f; clip-pa…...

    2024/5/4 0:13:56
  6. 【外汇早评】美通胀数据走低,美元调整

    原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...

    2024/5/1 17:30:59
  7. 【原油贵金属周评】原油多头拥挤,价格调整

    原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...

    2024/5/2 16:16:39
  8. 【外汇周评】靓丽非农不及疲软通胀影响

    原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...

    2024/4/29 2:29:43
  9. 【原油贵金属早评】库存继续增加,油价收跌

    原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...

    2024/5/3 23:10:03
  10. 【外汇早评】日本央行会议纪要不改日元强势

    原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...

    2024/4/27 17:58:04
  11. 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响

    原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...

    2024/4/27 14:22:49
  12. 【外汇早评】美欲与伊朗重谈协议

    原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...

    2024/4/28 1:28:33
  13. 【原油贵金属早评】波动率飙升,市场情绪动荡

    原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...

    2024/4/30 9:43:09
  14. 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试

    原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...

    2024/4/27 17:59:30
  15. 【原油贵金属早评】市场情绪继续恶化,黄金上破

    原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...

    2024/5/2 15:04:34
  16. 【外汇早评】美伊僵持,风险情绪继续升温

    原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...

    2024/4/28 1:34:08
  17. 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势

    原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...

    2024/4/26 19:03:37
  18. 氧生福地 玩美北湖(上)——为时光守候两千年

    原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...

    2024/4/29 20:46:55
  19. 氧生福地 玩美北湖(中)——永春梯田里的美与鲜

    原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...

    2024/4/30 22:21:04
  20. 氧生福地 玩美北湖(下)——奔跑吧骚年!

    原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...

    2024/5/1 4:32:01
  21. 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!

    原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...

    2024/4/27 23:24:42
  22. 「发现」铁皮石斛仙草之神奇功效用于医用面膜

    原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...

    2024/4/28 5:48:52
  23. 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者

    原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...

    2024/4/30 9:42:22
  24. 广州械字号面膜生产厂家OEM/ODM4项须知!

    原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...

    2024/5/2 9:07:46
  25. 械字号医用眼膜缓解用眼过度到底有无作用?

    原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...

    2024/4/30 9:42:49
  26. 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...

    解析如下&#xff1a;1、长按电脑电源键直至关机&#xff0c;然后再按一次电源健重启电脑&#xff0c;按F8健进入安全模式2、安全模式下进入Windows系统桌面后&#xff0c;按住“winR”打开运行窗口&#xff0c;输入“services.msc”打开服务设置3、在服务界面&#xff0c;选中…...

    2022/11/19 21:17:18
  27. 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。

    %读入6幅图像&#xff08;每一幅图像的大小是564*564&#xff09; f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...

    2022/11/19 21:17:16
  28. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...

    win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面&#xff0c;在等待界面中我们需要等待操作结束才能关机&#xff0c;虽然这比较麻烦&#xff0c;但是对系统进行配置和升级…...

    2022/11/19 21:17:15
  29. 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...

    有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows&#xff0c;请勿关闭计算机”的提示&#xff0c;要过很久才能进入系统&#xff0c;有的用户甚至几个小时也无法进入&#xff0c;下面就教大家这个问题的解决方法。第一种方法&#xff1a;我们首先在左下角的“开始…...

    2022/11/19 21:17:14
  30. win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...

    置信有很多用户都跟小编一样遇到过这样的问题&#xff0c;电脑时发现开机屏幕显现“正在配置Windows Update&#xff0c;请勿关机”(如下图所示)&#xff0c;而且还需求等大约5分钟才干进入系统。这是怎样回事呢&#xff1f;一切都是正常操作的&#xff0c;为什么开时机呈现“正…...

    2022/11/19 21:17:13
  31. 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...

    Win7系统开机启动时总是出现“配置Windows请勿关机”的提示&#xff0c;没过几秒后电脑自动重启&#xff0c;每次开机都这样无法进入系统&#xff0c;此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一&#xff1a;开机按下F8&#xff0c;在出现的Windows高级启动选…...

    2022/11/19 21:17:12
  32. 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...

    有不少windows10系统用户反映说碰到这样一个情况&#xff0c;就是电脑提示正在准备windows请勿关闭计算机&#xff0c;碰到这样的问题该怎么解决呢&#xff0c;现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法&#xff1a;1、2、依次…...

    2022/11/19 21:17:11
  33. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...

    今天和大家分享一下win7系统重装了Win7旗舰版系统后&#xff0c;每次关机的时候桌面上都会显示一个“配置Windows Update的界面&#xff0c;提示请勿关闭计算机”&#xff0c;每次停留好几分钟才能正常关机&#xff0c;导致什么情况引起的呢&#xff1f;出现配置Windows Update…...

    2022/11/19 21:17:10
  34. 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...

    只能是等着&#xff0c;别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚&#xff0c;只能是考虑备份数据后重装系统了。解决来方案一&#xff1a;管理员运行cmd&#xff1a;net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...

    2022/11/19 21:17:09
  35. 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?

    原标题&#xff1a;电脑提示“配置Windows Update请勿关闭计算机”怎么办&#xff1f;win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢&#xff1f;一般的方…...

    2022/11/19 21:17:08
  36. 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...

    关机提示 windows7 正在配置windows 请勿关闭计算机 &#xff0c;然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;关机提示 windows7 正在配…...

    2022/11/19 21:17:05
  37. 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...

    钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...

    2022/11/19 21:17:05
  38. 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...

    前几天班里有位学生电脑(windows 7系统)出问题了&#xff0c;具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面&#xff0c;长时间没反应&#xff0c;无法进入系统。这个问题原来帮其他同学也解决过&#xff0c;网上搜了不少资料&#x…...

    2022/11/19 21:17:04
  39. 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...

    本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法&#xff0c;并在最后教给你1种保护系统安全的好方法&#xff0c;一起来看看&#xff01;电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中&#xff0c;添加了1个新功能在“磁…...

    2022/11/19 21:17:03
  40. 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...

    许多用户在长期不使用电脑的时候&#xff0c;开启电脑发现电脑显示&#xff1a;配置windows更新失败&#xff0c;正在还原更改&#xff0c;请勿关闭计算机。。.这要怎么办呢&#xff1f;下面小编就带着大家一起看看吧&#xff01;如果能够正常进入系统&#xff0c;建议您暂时移…...

    2022/11/19 21:17:02
  41. 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...

    配置windows update失败 还原更改 请勿关闭计算机&#xff0c;电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;配置windows update失败 还原更改 请勿关闭计算机&#x…...

    2022/11/19 21:17:01
  42. 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...

    不知道大家有没有遇到过这样的一个问题&#xff0c;就是我们的win7系统在关机的时候&#xff0c;总是喜欢显示“准备配置windows&#xff0c;请勿关机”这样的一个页面&#xff0c;没有什么大碍&#xff0c;但是如果一直等着的话就要两个小时甚至更久都关不了机&#xff0c;非常…...

    2022/11/19 21:17:00
  43. 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...

    当电脑出现正在准备配置windows请勿关闭计算机时&#xff0c;一般是您正对windows进行升级&#xff0c;但是这个要是长时间没有反应&#xff0c;我们不能再傻等下去了。可能是电脑出了别的问题了&#xff0c;来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...

    2022/11/19 21:16:59
  44. 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...

    我们使用电脑的过程中有时会遇到这种情况&#xff0c;当我们打开电脑之后&#xff0c;发现一直停留在一个界面&#xff1a;“配置Windows Update失败&#xff0c;还原更改请勿关闭计算机”&#xff0c;等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢&#xff0…...

    2022/11/19 21:16:58
  45. 如何在iPhone上关闭“请勿打扰”

    Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...

    2022/11/19 21:16:57