xgboost学习笔记
基础知识
一、决策树
1. 决策树的定义
分类决策树模型是一种描述对实例进行分类的树形结构,决策树由结点(node)和有向边(directed edge)组成。结点有两种类型:内部结点(internal node)和叶结点(leaf node)。内部结点表示一个特征或属性,叶结点表示一个类。
2.决策树是怎么工作的
决策树学习本质上是从训练数据集中归纳出一组分类规则。与训练数据集不相矛盾的决策树(即能对训练数据进行正确分类的决策树)可能有多个,也可能一个都没有。我们需要的是一个与训练数据矛盾较小的决策树,同时具有很好的泛化能力。
3.决策树的构建方法
决策树学习的策略是以损失函数为目标函数的最小化。
(1) 构建根结点,将所有的训练数据都放在根结点。
(2) 选择一个最优特征,按照这一特征将训练数据集分割成子集,使得各个子集有一个当前条件下最好的分类。
(3) 如果这些子集已经能够被基本正确分类,那么构建 叶结点,并将这些子集分到所对应的叶结点去;如果还有子集不能被基本正确分类,那么就对这些子集选择新的最优特征,继续对其进行分割,构建相应的结点。
(4) 如此递归地进行下去,直至所有训练数据子集被基本正确分类,或者没有合适的特征为止。最后每个子集都被分到叶结点上,即都有了明确的类。这就生成了一颗决策树。
4. 常见的决策树构建算法
- ID3使用信息增益作为选择特征的准则;
- C4.5使用信息增益比作为选择特征的准则
- CART使用Gini指数作为选择特征的准则
5. 决策树生成的三个重要问题
- 如何选择分裂的特征
- 数据如何分割
- 什么时候停止分裂
6. 特征选择问题
直观上,如果一个特征具有更好的分类能力,或者说,按照这一特征将训练数据集分割成子集,使得各个子集在当前条件下有最好的分类,那么就更应该选择这个特征。信息增益(information gain)可以很好地表示这一直观的准则。
(1) 熵—随机变量不确定性的度量
设X是一个取有限值的离散随机变量,其概率分布为:
P(X=xi)=piP(X=x_i)=p_i P(X=xi)=pi
则随机变量X的熵定义为:
H(X)=−∑i=1npilogpiH(X)=-\sum_{i=1}^{n}p_ilog {p_i}H(X)=−i=1∑npilogpi
熵越大,随机变量的不确定性就越大
由定义可知,熵只依赖于X的分布,而与X的取值无关,则可将X的熵记作H(p)H(p)H(p),即
H(p)=−∑i=1npilogpiH(p)=-\sum_{i=1}^{n}p_ilog {p_i}H(p)=−i=1∑npilogpi
(2) 条件熵
表示在已知随机变量X的条件下随机变量Y的不确定性。
随机变量X给定的条件下随机变量Y的条件熵(conditional entropy)H(Y∣X)H(Y|X)H(Y∣X),定义为X给定条件下Y的条件概率分布的熵对X的数学期望。
H(Y∣X)=∑i=1npiH(Y∣X=xi)H(Y|X)=\sum_{i=1}^n{p_iH(Y|X=x_i)}H(Y∣X)=i=1∑npiH(Y∣X=xi)
(3) 信息增益
表示得知特征X的信息而使得类Y的信息的不确定性减少的程度。
定义:特征A对训练数据集D的信息增益g(D,A),定义为集合D的经验熵H(D)与特征A给定条件下D的经验条件熵H(D|A)之差,即
g(D,A)=H(D)−H(D∣A)g(D,A) = H(D)-H(D|A)g(D,A)=H(D)−H(D∣A)
一般地,熵H(Y)与条件熵H(Y|X)之差称为互信息,决策树学习中的信息增益等价于训练数据集中类与特征的互信息
(4) 信息增益的算法
基于信息增益准则 的特征选择方法是:对训练数据集(或子集)D,计算其每个特征的信息增益,并比较它们的大小,选择信息增益最大的特征。
设训练数据集为D,|D|表示其样本个数。设有K个类Ck,k=1,2,...,K,Ck为属于类Ck的样本个数,∑k=1KCk=∣D∣.C_k, k=1,2,...,K, C_k为属于类C_k的样本个数,\sum_{k=1}^K{C_k}=|D|.Ck,k=1,2,...,K,Ck为属于类Ck的样本个数,∑k=1KCk=∣D∣.
设特征A有n个不同的取值a1,a2,...,an,设特征A有n个不同的取值{a_1, a_2,...,a_n},设特征A有n个不同的取值a1,a2,...,an,根据特征A的取值将D划分为n个子集D1,D2,...,Dn,∣Di∣为Di的样本个数,∑i=1n根据特征A的取值将D划分为n个子集D_1,D_2,...,D_n,|D_i|为D_i的样本个数,\sum_{i=1}^n根据特征A的取值将D划分为n个子集D1,D2,...,Dn,∣Di∣为Di的样本个数,∑i=1n
记子集Di中属于类Ck的样本集合为Dik,即Dik=Di∩Ck,∣Dik∣为Dik的样本个数。记子集D_i中属于类C_k的样本集合为D_{ik},即D_ik=D_i∩C_k,|D_ik|为D_{ik}的样本个数。记子集Di中属于类Ck的样本集合为Dik,即Dik=Di∩Ck,∣Dik∣为Dik的样本个数。
输入:训练数据集D和特征A
输出:特征A对训练数据集D的信息增益g(D,A)
(1) 计算数据集D的经验熵H(D)
H(D)=−∑k=1K∣Ck∣∣D∣log2∣Ck∣∣D∣H(D)=-\sum_{k=1}^K\frac{{|C_k|}}{|D|}log_2\frac{{|C_k|}}{|D|}H(D)=−k=1∑K∣D∣∣Ck∣log2∣D∣∣Ck∣
(2) 计算特征A对数据集D的经验条件熵H(D|A)
H(D∣A)=∑i=1n∣Di∣∣D∣H(Di)=−∑i=1n∣Di∣∣D∣∑k=1K∣Dik∣∣Di∣log2∣Dik∣∣Di∣H(D|A)=\sum_{i=1}^n\frac{{|D_i|}}{|D|}H(D_i)=-\sum_{i=1}^n\frac{{|D_i|}}{|D|}\sum_{k=1}^{K}\frac{{|D_{ik}|}}{|D_i|}log_2\frac{{|D_{ik}|}}{|D_i|}H(D∣A)=i=1∑n∣D∣∣Di∣H(Di)=−i=1∑n∣D∣∣Di∣k=1∑K∣Di∣∣Dik∣log2∣Di∣∣Dik∣
(3) 计算信息增益
g(D,A)=H(D)−H(D∣A)g(D,A)=H(D)-H(D|A)g(D,A)=H(D)−H(D∣A)
- 一个例子(统计学习方法缩减版)
贷款申请样本数据表
ID | 年龄 | 有工作 | 信贷情况 | 类别 |
---|---|---|---|---|
1 | 青年 | 否 | 一般 | 否 |
2 | 青年 | 是 | 好 | 否 |
3 | 青年 | 是 | 好 | 是 |
4 | 中年 | 否 | 好 | 是 |
5 | 青年 | 是 | 一般 | 否 |
6 | 中年 | 否 | 一般 | 否 |
7 | 老年 | 是 | 一般 | 否 |
8 | 老年 | 是 | 一般 | 是 |
解: 首先计算经验熵H(D)
H(D)=−58log258−38log238=0.9544H(D)=-\frac{5}{8}log_2\frac{5}{8}-\frac{3}{8}log_2\frac{3}{8}=0.9544H(D)=−85log285−83log283=0.9544
然后计算各特征对数据集D的信息增益。分别以A1A_1A1,A2A_2A2,A2A_2A2,A3A_3A3表示年龄、有工作、信贷情况3个特征,则
(1)
g(D,A1)=H(D)−[48H(D1)+28H(D2)+28H(D3)]=H(D)−[48(−34log234−14log214)+28(−12log212−12log212)+28(−12log212−12log212)]=0.0871g(D,A_1)=H(D)-[\frac{4}{8}H(D_1)+\frac{2}{8}H(D_2)+\frac{2}{8}H(D_3)] \\=H(D)-[\frac{4}{8}(-\frac{3}{4}log_2\frac{3}{4}-\frac{1}{4}log_2\frac{1}{4})+\\\frac{2}{8}(-\frac{1}{2}log_2\frac{1}{2}-\frac{1}{2}log_2\frac{1}{2})+\\ \frac{2}{8}(-\frac{1}{2}log_2\frac{1}{2}-\frac{1}{2}log_2\frac{1}{2})] =0.0871g(D,A1)=H(D)−[84H(D1)+82H(D2)+82H(D3)]=H(D)−[84(−43log243−41log241)+82(−21log221−21log221)+82(−21log221−21log221)]=0.0871
这里D1,D2,D3D_1, D_2, D_3D1,D2,D3分别是D中A1A_1A1(年龄)取值为青年、中年和老年的样本子集。
(2)
g(D,A2)=H(D)−[38H(D1)+58H(D2)]=H(D)−[38(−13log213−23log223)+58(−35log235−25log225)]=0.0880g(D,A_2)=H(D)-[\frac{3}{8}H(D_1)+\frac{5}{8}H(D_2)] \\=H(D)-[\frac{3}{8}(-\frac{1}{3}log_2\frac{1}{3}-\frac{2}{3}log_2\frac{2}{3})+\\\frac{5}{8}(-\frac{3}{5}log_2\frac{3}{5}-\frac{2}{5}log_2\frac{2}{5})] =\\0.0880g(D,A2)=H(D)−[83H(D1)+85H(D2)]=H(D)−[83(−31log231−32log232)+85(−53log253−52log252)]=0.0880
(3)
g(D,A3)=H(D)−[58H(D1)+38H(D2)]=H(D)−[58(−15log215−45log245)+38(−23log223−13log213)]=0.2037g(D,A_3)=H(D)-[\frac{5}{8}H(D_1)+\frac{3}{8}H(D_2)] \\=H(D)-[\frac{5}{8}(-\frac{1}{5}log_2\frac{1}{5}-\frac{4}{5}log_2\frac{4}{5})+\\\frac{3}{8}(-\frac{2}{3}log_2\frac{2}{3}-\frac{1}{3}log_2\frac{1}{3})] =\\0.2037g(D,A3)=H(D)−[85H(D1)+83H(D2)]=H(D)−[85(−51log251−54log254)+83(−32log232−31log231)]=0.2037
最后,比较各特征的信息增益值。由于特征A3A_3A3(信贷情况)的信息增益值最大,所以选择特征A3A_3A3作为最优特征。
(4) 信息增益比
以信息增益作为划分训练数据集的特征,存在偏向于选择取值较多的特征的问题,使用信息增益比(information gain ratio)可以对这一问题进行校正。这是特征选择的另一准则。
特征A对训练数据集D的信息增益比gR(D,A)g_R(D,A)gR(D,A) 定义为其信息增益g(D,A)与训练数据集D关于特征A的值的熵HA(D)H_A(D)HA(D) 之比,即
gR(D,A)=g(D,A)HA(D)g_R(D,A)=\frac{g(D,A)}{H_A(D)}gR(D,A)=HA(D)g(D,A)
其中,HA(D)=−∑i=1n∣Di∣∣D∣log2∣Di∣∣D∣H_A(D)=-\sum_{i=1}^{n}\frac{|D_i|}{|D|}log_2\frac{|D_i|}{|D|}HA(D)=−∑i=1n∣D∣∣Di∣log2∣D∣∣Di∣,n是特征A取值的个数。
7. 决策树的生成
(1) ID3算法思想
算法核心思想:在决策树各个结点上应用信息增益准则选择特征,递归地构建决策树。具体方法是:从根结点(root node)开始,对结点计算所有可能的特征的信息增益,选择信息增益最大的特征作为结点的特征,由该特征的不同取值建立子结点;再对子结点递归地调用以上方法, 构建决策树;直到所有特征的信息增益均很小或没有特征可以选择为止。最后得到一颗决策树。ID3相当于用极大似然法进行概率模型的选择。
(2) ID3算法
输入:训练数据集D,特征集A阈值 ϵ\epsilonϵ
输出: 决策树T
(1) 若D中所有实例属于同一类CkC_kCk,则T为单结点树,并将类CkC_kCk作为该结点的类标记,返回T。
(2) 若A=∅\varnothing∅,则T为单结点树,并将D中实例数最大的类CkC_kCk作为该结点的类标记,返回T。
(3) 否则,计算A中各特征对D的信息增益,选择信息增益最大的特征AgA_gAg。
(4) 如果AgA_gAg的信息增益小于阈值 ε\varepsilonε,则置T为单结点树,并将D中实例数最大的类CkC_kCk作为该结点的类标记,返回T;
(5) 否则,对AgA_gAg的每一可能值aia_iai,依Ag=aiA_g=a_iAg=ai将D分割为若干非空子集DiD_iDi,将DiD_iDi中实例数最大的类作为标记,构建子结点,由结点及其子结点构成树T,返回T;
(6) 对iii个子结点,以DiD_iDi为训练集,以A−AgA-{A_g}A−Ag 为特征集,递归地调用步(1)~步(5),得到子树TiT_iTi,返回TiT_iTi
由于ID3算法只有树的生成,所以该算法生成的树容易产生过拟合。
8. C4.5的生成算法
输入: 训练数据集D,特征集A阈值 ε\varepsilonε;
输出: 决策树T
(1) 如果D中所有实例属于同一类CkC_kCk,则置T为单结点树,并将CkC_kCk作为该结点的类,返回T;
(2) 如果A=∅A=\varnothingA=∅,则置T为单结点树,并将D中实例数最大的类 CkC_kCk作为该结点的类,返回T;
(3) 否则,计算A中各特征对D的信息增益比,选择信息增益比最大的类 CkC_kCk 作为该结点的类,返回T;
(4) 如果AgA_gAg的信息增益比小于阈值 ε\varepsilonε, 则置T为单结点树,并将D中实例数最大的类 CkC_kCk 作为该结点的类,返回T
(5) 否则,对AgA_gAg的每一可能值aia_iai,依Ag=aiA_g=a_iAg=ai将D分割为子集若干非空DiD_iDi,将DiD_iDi中实例数最大的类作为标记,构建子结点,由结点及其子结点构成树T,返回T
(6) 对结点i,以DiD_iDi为训练集,以A−AgA-{A_g}A−Ag 为特征集,递归地调用步(1)~(5),得到子树 TiT_iTi
9. 决策树过拟合的避免—剪枝算法
决策树的剪枝通过极小化决策树整体的损失函数或代价函数来实现。设树T的叶结点个数为|T|,t是树T的叶结点,该叶结点有NtN_tNt个样本点,其中kkk类的样本点有NtkN_{tk}Ntk 个,k=1,2,...,K,Ht(T)k=1,2,...,K,H_t(T)k=1,2,...,K,Ht(T) 为叶结点t上的经验熵, α≥0\alpha\geq0α≥0为参数,则决策树学习的损失函数可以定义为
Cα(T)=∑i=1∣T∣NtHt(T)+α∣T∣C_\alpha{(T)}=\sum_{i=1}^{|T|}N_tH_t(T)+\alpha|T|Cα(T)=i=1∑∣T∣NtHt(T)+α∣T∣
其中经验熵为
Ht(T)=−∑KNtkNtlogNtkNtH_t(T)=-\sum_K\frac{N_{tk}}{N_t}log\frac{N_{tk}}{N_t}Ht(T)=−K∑NtNtklogNtNtk
10. XGBoost: A Scalable Tree Boosting System
Abstract
- XGBoost算法:一种新的稀疏感知算法,用于稀疏数据和用于近似数学习的加权分位数草图。
- 比当时流行解决方案快十倍以上,在分布式或内存有限的设置下可以扩展到数十亿个示例。
Introduction
- Innovation
- 新的树学习算法用于处理稀疏数据
- 理论上合理的加权分位草图过程使得能够在近似树学习中处理实例权重
- 并行和分布式计算
- Contribution
- 设计并构建了一个高度可扩展的端到端树增强系统
- 提出了一种理论上合理的加权分位数略图,用于高效的建议的计算
- 提出了一种有效的基于缓存感知的核外树学习块结构
- Regularized Learning Objective
(1) 对于含有m个特征n个样例的数据集 D={(xi,yi)}(∣D∣=n,xi∈Rm,yi∈R)\mathcal{D}=\{(x_i, y_i)\} (|\mathcal{D}| = n, x_i \in \mathbb{R}^m, y_i \in \mathbb{R})D={(xi,yi)}(∣D∣=n,xi∈Rm,yi∈R), 集成模型使用K个加法函数以预测输出。
yi^=ϕ(xi)=∑k=1Kfk(Xi),fk∈F\hat{y_i} = \phi(x_i) = \sum_{k=1}^{K}f_k(X_i), f_k \in \mathcal{F}yi^=ϕ(xi)=∑k=1Kfk(Xi),fk∈F
F={f(x)=w(q(x))}(q:Rm)→T,ω∈RT\mathcal{F} = \{f(x) = w_(q(x))\}(q: \mathbb{R}^m)\rightarrow T, \omega \in \mathbb{R}^TF={f(x)=w(q(x))}(q:Rm)→T,ω∈RT. q表示将示例映射到相应叶索引的每个树的结构。 T是树中叶子结点的数量。每一个fkf_kfk对应于一个独立的树结构q和叶子权重ω\omegaω。使用wiw_iwi表示第i个叶子结点的分数。
(2) 目标函数
L(ϕ)=∑il(y^i,yi)+∑kΩ(fk)\mathcal{L}(\phi) = \sum_{i}l(\hat{y}_i, y_i) + \sum_{k} \Omega(f_k)L(ϕ)=∑il(y^i,yi)+∑kΩ(fk)
其中 Ω(f)=γT+12λ∣∣ω∣∣2\Omega(f) = \gamma T + \frac{1}{2}\lambda||\omega||^2Ω(f)=γT+21λ∣∣ω∣∣2
其中,lll测量预测y^i\hat{y}_iy^i和目的yiy_iyi之间的差的可微凸损失函数。第二个为惩罚项。
XGBoost算法详解
1.与GBDT算法不同—目标函数
Obj(t)=∑i=1nl(yi,y^i(t−1)+ft(xi))+Ω(ft)+constantObj^{(t)}=\sum_{i=1}^{n}l(y_i, \hat{y}_i^{(t-1)}+ f_t(x_i)) + \Omega(f_t) + constantObj(t)=∑i=1nl(yi,y^i(t−1)+ft(xi))+Ω(ft)+constant
用泰勒展开式来近似我们原来的目标:
f(x+Δx)≃f(x)+f′(x)Δx+12f′′(x)Δx2f(x + \Delta x )\simeq f(x) + f'(x) \Delta x + \frac{1}{2}f''(x)\Delta x^2f(x+Δx)≃f(x)+f′(x)Δx+21f′′(x)Δx2
define:gi=∂y^(t−1)l(yi,y^(t−1)),hi=∂y^(t−1)2l(yi,y^(t−1))define:g_i=\partial_{\hat{y}^{(t-1)}}l(y_i, \hat{y}^{(t-1)}), h_i = \partial_{\hat{y}^{(t-1)}}^2l(y_i,\hat{y}^{(t-1)})define:gi=∂y^(t−1)l(yi,y^(t−1)),hi=∂y^(t−1)2l(yi,y^(t−1))
Obj(t)≃∑i=1n[l(yi,y^i(t−1))+gift2(xi)+12hift2(xi)]+Ω(ft)+constantObj^{(t)}\simeq \sum_{i=1}^{n}[l(y_i, \hat{y}_i^{(t-1)})+g_if_t^2(x_i)+\frac{1}{2}h_if_t^2(x_i)]+\Omega(f_t)+constantObj(t)≃∑i=1n[l(yi,y^i(t−1))+gift2(xi)+21hift2(xi)]+Ω(ft)+constant
2. XGBoost的核心算法思想
(1) 不断添加树,不断地进行特征分裂来生长一棵树,每次添加一个树,其实是学习一个新函数f(x),去拟合上次预测的残差。
(2) 当我们训练完成得到k颗树,我们要预测一个样本的分数,其实就是根据这个样本的特征,在每棵树中会落到对应的一个叶子节点,每个叶子节点就对应一个分数。
(3) 最后只需要将每棵树对应的分数加起来就就是该样本的预测值。
XGBoost需要将多棵树的得分累加得到最终的预测得分(每次迭代,都在现有树的基础上,增加一棵树去拟合前面树的预测结果与真实值之间的残差)
那么接下来,选取一个f使得我们的目标函数尽量最大地降低,f可以使用泰勒展开公式近似。
实质是把样本分配到叶子结点会对应一个obj,优化过程就是obj优化。也就是分裂节点到叶子不同的组合,不同的组合对应不同obj,所有的优化围绕这个思想展开。
(4) 树该怎么生长?
一棵树的生成是由一个结点一分为二,然后不断分裂最终形成整棵树,那么树是怎么分裂的呢?
枚举所有不同树结构的贪心法:不断地枚举不同树的结构,然后利用打分函数来寻找一个最优结构的树,接着加入到模型中,不断重复这样的操作。这个寻找的过程就是使用的贪心算法,选择一个feature分裂,计算loss function最小值,然后再选一个feature分类,又得到一个loss function最小值,枚举完,找一个效果最好的,把树给分裂,就得到了小树苗。
总而言之,XGBoost使用了和CART回归树一样的想法,利用贪婪算法,遍历所有特征的所有特征划分点,不同的是使用的目标函数不一样。具体做法就是分裂后的目标函数值比单子叶子节点的目标函数的增益,同时为了限制树生长过深,还加了个阈值,只有当增益大于该阈值才进行分裂。从而继续分裂,形成一棵树,再形成一棵树,每次在上一次的预测基础上取最优进一步分裂/建树。
(4) 如何停止树的循环生成
凡是这种循环迭代的方式必定有停止条件,设置树的最大深度,当样本权重和小于阈值时停止生长以防止过拟合。
- 当引入的分裂带来的增益小于设定阀值的时候,我们可以忽略掉这个分裂,所以并不是每一次分裂loss function整体都会增加的,有点预剪枝的意思,阈值参数为(即正则项里叶子节点数T的系数);
- 当树达到最大深度时则停止建立决策树,设置一个超参数max_depth,避免树太深导致学习局部样本,从而过拟合;
- 样本权重和小于设定阈值时则停止建树。什么意思呢,即涉及到一个超参数-最小的样本权重和min_child_weight,和GBM的 min_child_leaf 参数类似,但不完全一样。大意就是一个叶子节点样本太少了,也终止同样是防止过拟合;
3. XGBoost与GBDT有什么不同
除了算法上与传统的GBDT有一些不同外,XGBoost还在工程实现上做了大量的优化。总的来说,两者之间的区别和联系可以总结成以下几个方面。
- GBDT是机器学习算法,XGBoost是该算法的工程实现。
- 在使用CART作为基分类器时,XGBoost显式地加入了正则项来控制模 型的复杂度,有利于防止过拟合,从而提高模型的泛化能力。
- GBDT在模型训练时只使用了代价函数的一阶导数信息,XGBoost对代 价函数进行二阶泰勒展开,可以同时使用一阶和二阶导数。
- 传统的GBDT采用CART作为基分类器,XGBoost支持多种类型的基分类 器,比如线性分类器。
- 传统的GBDT在每轮迭代时使用全部的数据,XGBoost则采用了与随机 森林相似的策略,支持对数据进行采样。
- 传统的GBDT没有设计对缺失值进行处理,XGBoost能够自动学习出缺失值的处理策略。
4. 为什么XGBoost要用泰勒展开,优势在哪里?
XGBoost使用了一阶和二阶偏导, 二阶导数有利于梯度下降的更快更准. 使用泰勒展开取得函数做自变量的二阶导数形式, 可以在不选定损失函数具体形式的情况下, 仅仅依靠输入数据的值就可以进行叶子分裂优化计算, 本质上也就把损失函数的选取和模型算法优化/参数选择分开了. 这种去耦合增加了XGBoost的适用性, 使得它按需选取损失函数, 可以用于分类, 也可以用于回归。
References
[1] 终于有人说清楚了–XGBoost算法 - mantch - 博客园 (cnblogs.com)
[2] XGBoost: A Scalable Tree Boosting System.
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
相关文章
- Word list 3
152. leak /漏;洞; lak lck pound lake 水滴 湖泊 153. literature /文学;文献 liter 文学 ate do 引申为有读写能力地 154. suffer /遭受;忍受;患病 suffer from 155. impede /阻碍;妨碍 im 在p 前…...
2024/4/14 4:05:55 - 递归与递推
递归与递推 AcWing 92. 递归实现指数型枚举 #include<iostream> #include<cstring> #include<algorithm> using namespace std; const int N 20; int n; int st[N]; void dfs(int u) {if(u>n){for(int i1;i<n;i)if(st[i]1)cout<<i<< ;cou…...
2024/4/13 18:41:09 - 图片验证码的出现以及使用
一:后端代码 a. 安装pillow模块 pip3 install pillow -i https://pypi.douban.com/simple/ b. 把下列字体文件下载下来,放到根目录(一定要根目录,因为我函数封装的路径,从根目录找的) 字体文件https://pan.baidu.com/s/1FRSdn…...
2024/4/18 0:04:48 - 【论文阅读】Time Series is a Special Sequence 1 概述与机器学习知识补充
1.概述 该模型选择了新的神经网络架构,对时间模型进行样本卷积和交互,进而选择更优的时间关系特征(temporal relation features),应用至时间序列预测中。 架构:下采样-卷积-交互(downsample-convolve-interact archi…...
2024/4/13 18:41:19 - CSAPP(CMU 15-213):Lab3 Attacklab详解
# 前言 本系列文章意在记录答主学习CSAPP Lab的过程,也旨在可以帮助后人一二,欢迎大家指正! tips:本lab主要是利用gets中的不安全(越界,覆盖原栈桢内容),缺陷来进行攻击(缓冲区溢出)Part I : …...
2024/4/13 18:41:29 - 2022年A特种设备相关管理(电梯)考试技巧及A特种设备相关管理(电梯)证考试
题库来源:安全生产模拟考试一点通公众号小程序 安全生产模拟考试一点通:A特种设备相关管理(电梯)考试技巧考前必练!安全生产模拟考试一点通每个月更新A特种设备相关管理(电梯)证考试题目及答案…...
2024/4/20 18:16:52 - 数据结构和算法(1)
目录 字符串算法 字符串匹配算法 RK算法 KMP BM匹配算法 查找类算法 递归查找 顺序查找 二分查找法 Hash算法 排序类算法 冒泡排序 选择排序(Selection-sort) 插入法排序 希尔排序 快速排序 归并排序 计数排序 堆排序 桶排序 基数排序 CAS 加密算法 算法…...
2024/4/13 18:41:29 - 蓝桥杯:猜生日
提示:月份是6月份,那么只能是06 年份的话从1912年开始遍历(以寿命100年来算) 天数就是1-31天 然后就是拼接起来了 1912*10000 19120000 (年份) 19120000 06*100 19120600(年份月份) 19120600 日期…...
2024/4/15 7:38:07 - Scrapy初入门笔记
说明: 仅为学习时简略笔记,详见菜鸟教程 Scrapy 入门教程 | 菜鸟教程 (runoob.com)https://www.runoob.com/w3cnote/scrapy-detail.html 一:安装 法1(先尝试下): pip install scrapy *此方法经常出错 法2(通过Anac…...
2024/4/15 22:10:01 - linux控制用户密码失效时间
声明:本文乃“运维家”原创,转载请注明出处,更多内容请关注公众号“运维家”。 主旨 linux服务器一般被用于生产环境,那么对于安全性要求就比较高,那么我们是不是可以通过强制限制用户在固定时间内必须要修改密码&…...
2024/4/19 0:20:39 - 面试经验 | 腾讯WXG | 一二+面委+HR|已拿offer
背景 学历: 双非一本,软件工程大四在读 项目: 一个分布式的商城管理后台,简单的分布式系统 一个Spring cloud (nacos gateway) security netty实现的分布式聊天室 实习: 2021.4 - 2021.8 腾讯IEG 更新ÿ…...
2024/4/13 18:41:14 - 激光点云语义分割-俯视图系列
激光点云语义分割-俯视图系列 文章目录激光点云语义分割-俯视图系列1. 自己的研究思路2. SalsaNet: Fast Road and Vehicle Segmentation in LiDAR Point Clouds for Autonomous Driving1. 基本思想2. 基本原理3. 实验效果4. 一些启示3. Online Inference and Detection of Cur…...
2024/4/13 18:41:34 - 2022.1.31java练习
《Java语言程序设计》p61页 2.13:假设你每月向银行存100美元,年利率为5%,编写程序显示任何一个月之后的任务值。 import java.util.Scanner; public class practice0131 {public static void main(String[]args){Scanner inputnew Scanner(System.in);d…...
2024/4/13 18:41:04 - 计算机网络笔记
目录计网1.HTTP和HTTPS2.HTTP和TCP3.HTTP和Socket4.TCP和UDP5.长连接和短连接HTTP,IP,TCP的作用和区别什么是长连接的保活机制6.IP和MAC7.拥塞控制和流量控制8.GET和POST9.HTTP状态码计网 1.HTTP和HTTPS HTTPHTTPS超文本传输协议以安全为目标的HTTP基于…...
2024/4/13 18:41:24 - MEX Sequences(状态机DP)
MEX Sequences [Link](Problem - D - Codeforces) 题意 给你一个序列xnx_nxn,问你有多少个子序列满足∣xi−MEX(x1,x2,...,xi)(下标为子序列的下标)∣≤1|x_i-MEX(x_1,x_2,...,x_i)(下标为子序列的下标)|\le1∣xi−MEX(x1,x2,...,xi)(下标为子序列的下…...
2024/4/13 18:41:09 - 文章歌曲记录
1 麦芽糖 2 分裂...
2024/4/7 20:02:45 - Linux网络配置
DNS服务器配置如果出问题,输出下面的指令 Linux能ping通局域网但是ping不通外网 1.确定网络配置没有问题 vi /etc/sysconfig/network-scripts/ifcfg-eth0 DEVICEeth0 HWADDR00:0C:29:82:98:B5 TYPEEthernet UUIDc7d324a9-6467-489c-8981-143a09463d39 ONBOOTyes I…...
2024/4/13 18:42:20 - 【例7-9】递归问题的引入
递归:函数自己不断调用自己(递),直到调用到唯一已知对象(终止条件)后,开始层层返回上一步(归)的一个完整过程。 递归作为一种算法在编程中广泛应用,它通常把一个大型复杂的问题层层转化为一个个与原问题相似、规模较小的问题来求解…...
2024/4/13 18:42:20 - 基于R语言的shiny网页工具开发基础系列-02
l2-shiny的页面布局 基于上篇对shiny app 结构的了解 是时候开始从零构建一个shiny app了 二、构建一个用户界面 此篇旨在如何构建app对用户界面,如何布局用户界面然后加文字图片和其他HTML元素 让我们用上一篇构建的App-1开始这篇吧,编辑一下变成下面的样子 library(s…...
2024/4/18 15:09:32 - Word宏getshell
原理 在宏代码里写入执行shell连接的命令,当用户打开Word时,自定执行获得shell连接。前提条件需要用户点击启用宏,才能触发执行宏命令。所以需要考虑如何诱导用户点击启用宏。 简单示例 Word开启开发工具选项 在Word选项设置中开启开发工…...
2024/4/25 15:03:44
最新文章
- TCP重传机制——快速重传
TCP 有一种快速重传机制,它不以时间为驱动,而是以数据驱动重传。 在上图,发送方发出了 1,2,3,4,5 份数据: 第一份 Seq1 先送到了,于是就 Ack 回 2;结果 Seq2…...
2024/5/4 10:24:53 - 梯度消失和梯度爆炸的一些处理方法
在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言,在此感激不尽。 权重和梯度的更新公式如下: w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...
2024/3/20 10:50:27 - Docker Desktop+WSL2安装到自定义路径
现在大多数软件实在太“流氓”了,在安装过程中,根本不让你选择安装路径,默认安装到$HOME下(windows C盘),随着软件的使用增多,可能磁盘空间不够,这个时候就想着,看看某些…...
2024/5/4 9:55:38 - 基于AI智能识别技术的智慧展览馆视频监管方案设计
一、建设背景 随着科技的不断进步和社会安全需求的日益增长,展览馆作为展示文化、艺术和科技成果的重要场所,其安全监控系统的智能化升级已成为当务之急。为此,旭帆科技(TSINGSEE青犀)基于视频智能分析技术推出了展览…...
2024/4/30 17:11:11 - 【外汇早评】美通胀数据走低,美元调整
原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...
2024/5/1 17:30:59 - 【原油贵金属周评】原油多头拥挤,价格调整
原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...
2024/5/2 16:16:39 - 【外汇周评】靓丽非农不及疲软通胀影响
原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...
2024/4/29 2:29:43 - 【原油贵金属早评】库存继续增加,油价收跌
原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...
2024/5/3 23:10:03 - 【外汇早评】日本央行会议纪要不改日元强势
原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...
2024/4/27 17:58:04 - 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响
原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...
2024/4/27 14:22:49 - 【外汇早评】美欲与伊朗重谈协议
原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...
2024/4/28 1:28:33 - 【原油贵金属早评】波动率飙升,市场情绪动荡
原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...
2024/4/30 9:43:09 - 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试
原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...
2024/4/27 17:59:30 - 【原油贵金属早评】市场情绪继续恶化,黄金上破
原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...
2024/5/2 15:04:34 - 【外汇早评】美伊僵持,风险情绪继续升温
原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...
2024/4/28 1:34:08 - 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势
原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...
2024/4/26 19:03:37 - 氧生福地 玩美北湖(上)——为时光守候两千年
原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...
2024/4/29 20:46:55 - 氧生福地 玩美北湖(中)——永春梯田里的美与鲜
原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...
2024/4/30 22:21:04 - 氧生福地 玩美北湖(下)——奔跑吧骚年!
原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...
2024/5/1 4:32:01 - 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!
原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...
2024/5/4 2:59:34 - 「发现」铁皮石斛仙草之神奇功效用于医用面膜
原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...
2024/4/28 5:48:52 - 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者
原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...
2024/4/30 9:42:22 - 广州械字号面膜生产厂家OEM/ODM4项须知!
原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...
2024/5/2 9:07:46 - 械字号医用眼膜缓解用眼过度到底有无作用?
原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...
2024/4/30 9:42:49 - 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...
解析如下:1、长按电脑电源键直至关机,然后再按一次电源健重启电脑,按F8健进入安全模式2、安全模式下进入Windows系统桌面后,按住“winR”打开运行窗口,输入“services.msc”打开服务设置3、在服务界面,选中…...
2022/11/19 21:17:18 - 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。
%读入6幅图像(每一幅图像的大小是564*564) f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...
2022/11/19 21:17:16 - 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...
win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面,在等待界面中我们需要等待操作结束才能关机,虽然这比较麻烦,但是对系统进行配置和升级…...
2022/11/19 21:17:15 - 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...
有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows,请勿关闭计算机”的提示,要过很久才能进入系统,有的用户甚至几个小时也无法进入,下面就教大家这个问题的解决方法。第一种方法:我们首先在左下角的“开始…...
2022/11/19 21:17:14 - win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...
置信有很多用户都跟小编一样遇到过这样的问题,电脑时发现开机屏幕显现“正在配置Windows Update,请勿关机”(如下图所示),而且还需求等大约5分钟才干进入系统。这是怎样回事呢?一切都是正常操作的,为什么开时机呈现“正…...
2022/11/19 21:17:13 - 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...
Win7系统开机启动时总是出现“配置Windows请勿关机”的提示,没过几秒后电脑自动重启,每次开机都这样无法进入系统,此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一:开机按下F8,在出现的Windows高级启动选…...
2022/11/19 21:17:12 - 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...
有不少windows10系统用户反映说碰到这样一个情况,就是电脑提示正在准备windows请勿关闭计算机,碰到这样的问题该怎么解决呢,现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法:1、2、依次…...
2022/11/19 21:17:11 - 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...
今天和大家分享一下win7系统重装了Win7旗舰版系统后,每次关机的时候桌面上都会显示一个“配置Windows Update的界面,提示请勿关闭计算机”,每次停留好几分钟才能正常关机,导致什么情况引起的呢?出现配置Windows Update…...
2022/11/19 21:17:10 - 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...
只能是等着,别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚,只能是考虑备份数据后重装系统了。解决来方案一:管理员运行cmd:net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...
2022/11/19 21:17:09 - 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?
原标题:电脑提示“配置Windows Update请勿关闭计算机”怎么办?win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢?一般的方…...
2022/11/19 21:17:08 - 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...
关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!关机提示 windows7 正在配…...
2022/11/19 21:17:05 - 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...
钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...
2022/11/19 21:17:05 - 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...
前几天班里有位学生电脑(windows 7系统)出问题了,具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面,长时间没反应,无法进入系统。这个问题原来帮其他同学也解决过,网上搜了不少资料&#x…...
2022/11/19 21:17:04 - 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...
本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法,并在最后教给你1种保护系统安全的好方法,一起来看看!电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中,添加了1个新功能在“磁…...
2022/11/19 21:17:03 - 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...
许多用户在长期不使用电脑的时候,开启电脑发现电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机。。.这要怎么办呢?下面小编就带着大家一起看看吧!如果能够正常进入系统,建议您暂时移…...
2022/11/19 21:17:02 - 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...
配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!配置windows update失败 还原更改 请勿关闭计算机&#x…...
2022/11/19 21:17:01 - 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...
不知道大家有没有遇到过这样的一个问题,就是我们的win7系统在关机的时候,总是喜欢显示“准备配置windows,请勿关机”这样的一个页面,没有什么大碍,但是如果一直等着的话就要两个小时甚至更久都关不了机,非常…...
2022/11/19 21:17:00 - 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...
当电脑出现正在准备配置windows请勿关闭计算机时,一般是您正对windows进行升级,但是这个要是长时间没有反应,我们不能再傻等下去了。可能是电脑出了别的问题了,来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...
2022/11/19 21:16:59 - 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...
我们使用电脑的过程中有时会遇到这种情况,当我们打开电脑之后,发现一直停留在一个界面:“配置Windows Update失败,还原更改请勿关闭计算机”,等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢࿰…...
2022/11/19 21:16:58 - 如何在iPhone上关闭“请勿打扰”
Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...
2022/11/19 21:16:57