目录
一 Boosting方法的基本思想
 1 Bagging pk Boosting
 2 Boosting算法的基本元素与基本流程
 3 sklearn中的boosting算法
二 AdaBoost
 1 AdaBoost的基本参数与损失函数
  1.1 n_estimators
  1.2 learning_rate
  1.3 algorithm与loss
 2 原理进阶:Adaboost回归的求解流程

一 Boosting方法的基本思想

在集成学习的“弱分类器集成”领域,除了降低方差来降低整体泛化误差的装袋法Bagging,还有专注于降低整体偏差来降低泛化误差的提升法Boosting(损失函数越来越小、准确率越来越高,模型效果越来越好)。相比起操作简单、大道至简的Bagging算法,Boosting算法在操作和原理上的难度都更大,但由于专注于偏差降低,Boosting算法们在模型效果方面的突出表现制霸整个弱分类器集成的领域。当代知名的Boosting算法当中,Xgboost,LightGBM与Catboost都是机器学习领域最强大的强学习器,Boosting毫无疑问是当代机器学习领域最具统治力的算法领域。

  • Boosting PK Bagging
    在这里插入图片描述
    在这里插入图片描述

在以随机森林为代表的Bagging算法中,我们一次性建立多个平行独立的弱评估器,并让所有评估器并行运算。在Boosting集成算法当中,我们逐一建立多个弱评估器(基本是决策树),并且下一个弱评估器的建立方式依赖于上一个弱评估器的评估结果,最终综合多个弱评估器的结果进行输出,因此Boosting算法中的弱评估器之间不仅不是相互独立的、反而是强相关的,同时Boosting算法也不依赖于弱分类器之间的独立性来提升结果,这是Boosting与Bagging的一大差别。如果说Bagging不同算法之间的核心区别在于靠以不同方式实现“独立性”(随机性),那Boosting的不同算法之间的核心区别就在于上一个弱评估器的评估结果具体如何影响下一个弱评估器的建立过程

与Bagging算法中统一的回归求平均、分类少数服从多数的输出不同,Boosting算法在结果输出方面表现得十分多样。早期的Boosting算法的输出一般是最后一个弱评估器的输出,当代Boosting算法的输出都会考虑整个集成模型中全部的弱评估器。一般来说,每个Boosting算法会其以独特的规则自定义集成输出的具体形式,但对大部分算法而言,集成算法的输出结果往往是关于弱评估器的某种结果的加权平均,其中权重的求解是boosting领域中非常关键的步骤。

  • Boosting算法的基本元素与基本流程

基于上面所明确的“降低偏差”、“逐一建树”、以及“以独特规则输出结果”的三大特色,我们可以确立任意boosting算法的三大基本元素以及boosting算法自适应建模的基本流程:

  • 损失函数𝐿(𝑥,𝑦):用以衡量模型预测结果与真实结果的差异
  • 弱评估器𝑓(𝑥) :(一般为)决策树,不同的boosting算法使用不同的建树过程
  • 综合集成结果𝐻(𝑥):即集成算法具体如何输出集成结果

这三大元素将会贯穿所有我们即将学习的boosting算法,我们会发现几乎所有boosting算法的原理都围绕这三大元素构建。在此三大要素基础上,所有boosting算法都遵循以下流程进行建模:
在这里插入图片描述
正如之前所言,Boosting算法之间的不同之处就在于使用不同的方式来影响后续评估器的构建。无论boosting算法表现出复杂或简单的流程,其核心思想一定是围绕上面这个流程不变的。

  • sklearn中的boosting算法

在sklearn当中,我们可以接触到数个Boosting集成算法,包括Boosting入门算法AdaBoost,性能最稳定、奠定了整个Boosting效果基础的梯度提升树GBDT(Gradient Boosting Decision Tree),以及近几年才逐渐被验证有效的直方提升树(Hist Gradient Boosting Tree)。

在过去5年之间,除了sklearn,研究者们还创造了大量基于GBDT进行改造的提升类算法,这些算法大多需要从第三方库进行调用,例如极限提升树XGBoost(Extreme Gradient Boosting Tree),轻量梯度提升树LightGBM(Light Gradiant Boosting Machine),以及离散提升树CatBoost(Categorial Boosting Tree)。

在课程当中,我们会一一介绍以上所有算法的原理与用法。另外需要注意的是,周志华老师于2017年提出的深度森林算法既不是boosting也不是bagging,而是以深度学习的思路重新集成决策树之后得到的独特算法,可以算是模型融合的一部分。

二 AdaBoost

AdaBoost(Adaptive Boosting,自适应提升法)是当代boosting领域的开山鼻祖,它虽然不是首个实践boosting思想算法,却是首个成功将boosting思想发扬光大的算法。它的主要贡献在于实现了两个变化:

1、首次实现根据之前弱评估器的结果自适应地影响后续建模过程
2、在Boosting算法中,首次实现考虑全部弱评估器结果的输出方式

作为开山算法,AdaBoost的构筑过程非常简单:首先,在全样本上建立一棵决策树,根据该决策树预测的结果和损失函数值,增加被预测错误的样本在数据集中的样本权重,并让加权后的数据集被用于训练下一棵决策树。这个过程相当于有意地加重“难以被分类正确的样本”的权重,同时降低“容易被分类正确的样本”的权重,而将后续要建立的弱评估器的注意力引导到难以被分类正确的样本上。
在这里插入图片描述
在该过程中,上一棵决策树的的结果通过影响样本权重、即影响数据分布来影响下一棵决策树的建立,整个过程是自适应的。当全部弱评估器都被建立后,集成算法的输出𝐻(𝑥)等于所有弱评估器输出值的加权平均,加权所用的权重也是在建树过程中被自适应地计算出来的。

需要注意的是,虽然最初的原理较为简单,但近年来AdaBoost在已经发展出多个升级的版本(比如,在建立每棵树之前,允许随机抽样特征,这使得Boosting中的决策树行为更加接近Bagging中的决策树),而sklearn中使用了这些升级后的版本进行实现。幸运的是,这些实现并不影响我们对sklearn中的类的使用,对这些实现的具体过程感兴趣的小伙伴,可以在章节《2 原理进阶:AdaBoost的求解流程》中查看具体原理。

在sklearn中,AdaBoost既可以实现分类也可以实现回归,我们使用如下两个类来调用它们:

class sklearn.ensemble.AdaBoostClassifier(base_estimator=None, *, n_estimators=50, learning_rate=1.0, algorithm=‘SAMME.R’, random_state=None)

class sklearn.ensemble.AdaBoostRegressor(base_estimator=None, *, n_estimators=50, learning_rate=1.0, loss=‘linear’, random_state=None)

不难发现,AdaBoost的参数非常非常少,在调用AdaBoost时我们甚至无需理解AdaBoost的具体求解过程。同时,ADB分类器与ADB回归器的参数也高度一致。在课程当中,我们将重点Boosting算法独有的参数,以及ADB分类与ADB回归中表现不一致的参数。
在这里插入图片描述

1 AdaBoost的基本参数与损失函数

from sklearn.ensemble import AdaBoostClassifier as ABC
from sklearn.ensemble import AdaBoostRegressor as ABR
from sklearn.tree import DecisionTreeClassifier as DTC
from sklearn.tree import DecisionTreeRegressor as DTR
from sklearn.datasets import load_digits#用于分类的数据
data_c = load_digits()
X_c = data_c.data
y_c = data_c.targetX_c.shape
#(1797, 64)
X_c
#array([[ 0.,  0.,  5., ...,  0.,  0.,  0.],
#       [ 0.,  0.,  0., ..., 10.,  0.,  0.],
#       [ 0.,  0.,  0., ..., 16.,  9.,  0.],
#       ...,
#       [ 0.,  0.,  1., ...,  6.,  0.,  0.],
#       [ 0.,  0.,  2., ..., 12.,  0.,  0.],
#       [ 0.,  0., 10., ..., 12.,  1.,  0.]])
np.unique(y_c) #手写数字数据集,10分类
#array([0, 1, 2, 3, 4, 5, 6, 7, 8, 9])#用于回归的数据
data_r = pd.read_csv(r"D:\Pythonwork\2021ML\PART 2 Ensembles\datasets\House Price\train_encode.csv",index_col=0)
X_g = data_r.iloc[:,:-1]
y_g = data_r.iloc[:,-1]
X_g.shape
#(1460, 80)
X_g.head()

在这里插入图片描述

  • 参数base_estimator,属性base_estimator_与estimators_

base_estimator是规定AdaBoost中使用弱评估器的参数。与对弱评估器有严格要求的Bagging算法不同,boosting算法通过降低偏差来降低整体泛化误差,因此可以使用任意弱评估器,且这些弱评估器往往被假设成非常弱小的评估器。当然了,默认的弱评估器还是决策树。在sklearn中,ADB分类器的默认弱评估器是最大深度为1的“树桩”,ADB回归器的默认评估器是最大深度为3的“树苗”,弱评估器本身基本不具备判断能力。而回归器中树深更深是因为boosting算法中回归任务往往更加复杂。在传统ADB理论当中,一般认为AdaBoost中的弱分类器为最大深度为1的树桩,但现在我们也可以自定义某种弱评估器来进行输入。

当模型建好之后,我们可以使用属性base_estimator_来查看当前弱评估器,同时也可以使用estimators_来查看当前集成模型中所有弱评估器的情况:

  • 建立集成算法,调用其中的弱评估器
#建立ADB回归器和分类器
clf = ABC(n_estimators=3).fit(X_c,y_c)
reg = ABR(n_estimators=3).fit(X_g,y_g)clf.base_estimator_
#DecisionTreeClassifier(max_depth=1)
reg.base_estimator_
#DecisionTreeRegressor(max_depth=3)
reg.estimators_
#[DecisionTreeRegressor(max_depth=3, random_state=765348147),
# DecisionTreeRegressor(max_depth=3, random_state=850911835),
# DecisionTreeRegressor(max_depth=3, random_state=1434155639)]

当AdaBoost完成分类任务时,弱评估器是分类树,当AdaBoost完成回归任务时,弱评估器是回归树,这一点与之后的Boosting算法们有较大的区别。

  • 自建弱评估器
base_estimator = DTC(max_depth=10,max_features=30)
clf = ABC(base_estimator = base_estimator, n_estimators=3).fit(X_c,y_c)
clf.base_estimator_
#DecisionTreeClassifier(max_depth=10, max_features=30)
clf.estimators_
#[DecisionTreeClassifier(max_depth=10, max_features=30, random_state=814836020),
# DecisionTreeClassifier(max_depth=10, max_features=30, random_state=880262373),
# DecisionTreeClassifier(max_depth=10, max_features=30, random_state=925249775)]

注意,为了保证集成算法中的树不一致,AdaBoost会默认消除我们填写在弱评估器中的random_state:

base_estimator = DTC(max_depth=10,max_features=30,random_state=1412)
clf = ABC(base_estimator = base_estimator, n_estimators=3).fit(X_c,y_c)
clf.estimators_
#[DecisionTreeClassifier(max_depth=10, max_features=30, random_state=677195652),
# DecisionTreeClassifier(max_depth=10, max_features=30, random_state=1650391099),
# DecisionTreeClassifier(max_depth=10, max_features=30, random_state=672741048)]

​- 参数learning_rate

在Boosting集成方法中,集成算法的输出H(x)H(x)H(x)往往都是多个弱评估器的输出结果的加权平均结果。H(x)H(x)H(x)并不是在所有树建好之后才统一加权求解的,而是在算法逐渐建树的过程当中就随着迭代不断计算出来的。例如,对于样本xix_ixi,集成算法当中一共有TTT棵树(也就是参数n_estimators的取值),现在正在建立第ttt个弱评估器,则第ttt个弱评估器上xix_ixi的结果可以表示为ft(xi)f_t(x_i)ft(xi)。假设整个Boosting算法对样本xix_ixi输出的结果为H(xi)H(x_i)H(xi),则该结果一般可以被表示为t=1~t=T过程当中,所有弱评估器结果的加权求和:
H(xi)=∑t=1Tϕtft(xi)H(x_i) = \sum_{t=1}^T\phi_tf_t(x_i)H(xi)=t=1Tϕtft(xi)

其中,ϕt\phi_tϕt为第t棵树的权重。对于第ttt次迭代来说,则有:

Ht(xi)=Ht−1(xi)+ϕtft(xi)H_t(x_i) = H_{t-1}(x_i) + \phi_tf_t(x_i)Ht(xi)=Ht1(xi)+ϕtft(xi)

在这个一般过程中,每次将本轮建好的决策树加入之前的建树结果时,可以在权重ϕ\phiϕ前面增加参数η\color{red}\etaη,表示为第t棵树加入整体集成算法时的学习率,对标参数learning_rate

Ht(xi)=Ht−1(xi)+ηϕtft(xi)H_t(x_i) = H_{t-1}(x_i) + \boldsymbol{\color{red}\eta} \phi_tf_t(x_i)Ht(xi)=Ht1(xi)+ηϕtft(xi)

该学习率参数控制Boosting集成过程中H(xi)H(x_i)H(xi)的增长速度,是相当关键的参数。当学习率很大时,H(xi)H(x_i)H(xi)增长得更快,我们所需的n_estimators更少,当学习率较小时,H(xi)H(x_i)H(xi)增长较慢,我们所需的n_estimators就更多,因此boosting算法往往会需要在n_estimators与learning_rate当中做出权衡(以XGBoost算法为例)。

需要注意的是,以上式子为boosting算法中计算方式的一般规则,并不是具体到AdaBoost或任意Boosting集成算法的具体公式

  • 参数algorithmloss

参数algorithmloss是boosting算法中非常常见的,分类器与回归器展示出不同参数的情况。正如之前提到的,虽然AdaBoost算法的原理简单,但是在近几年已经发展出了多种不同的算法实践手段,而参数algorithmloss正是用来控制算法实践手段的关键参数,其中algorithm控制具体的实践算法,loss控制该实践算法中所使用的具体损失函数。

  • algorithm

首先,参数algorithm是针对分类器设置的参数,其中备选项有"SAMME"与"SAMME.R"两个字符串。这两个字符串分别代表了两种不同的、实现AdaBoost分类的手段:AdaBoost-SAMME与AdaBoost-SAMME.R。两者在数学流程上的区别并不大,只不过SAMME是基于算法输出的具体分类结果(例如-1,1,2)进行计算,而SAMME.R则是在SAMME基础上改进过后、基于弱分配器输出的概率值进行计算,两种方法都支持在AdaBoost上完成多分类任务,但SAMME.R往往能够得到更好的结果,因此sklearn中的默认值是SAMME.R,因此**sklearn中默认可以输入的base_estimators也需要是能够输出预测概率的弱评估器。实际在预测时,AdaBoost输出的H(x)H(x)H(x)也针对于某一类别的概率**。

需要注意的是,在分类器中,我们虽然被允许选择算法,却不被允许选择算法所使用的损失函数,这是因为SAMME与SAMME.R使用了相同的损失函数:二分类指数损失(Exponential Loss Function)与多分类指数损失(Multi-class Exponential loss function)。

二分类指数损失——
L(H(x),y)=e−yH∗(x)L(H(x),y) = e^{-yH^*(x)}L(H(x),y)=eyH(x)其中y为真实分类,H∗(x)H^*(x)H(x)则是从集成算法输出的概率结果H(x)H(x)H(x)转换来的向量。转换规则如下:

H∗(x)={1ifH(x)>0.5−1ifH(x)<0.5H^*(x)= \begin{cases} 1& if \ H(x)>0.5 \\ -1& if\ H(x) < 0.5 \end{cases}H(x)={11if H(x)>0.5if H(x)<0.5

在sklearn当中,由于H(x)H(x)H(x)是概率值,因此需要转换为H∗(x)H^*(x)H(x),如果在其他实现AdaBoost的算法库中,H(x)H(x)H(x)输出直接为预测类别,则可以不执行转换流程。

根据指数损失的特殊性质,二分类状况下的类别取值只能为-1或1,因此yyy的取值只能为-1或1。当算法预测正确时,yH∗(x)yH^*(x)yH(x)的符号为正,则在函数e−xe^{-x}ex上损失很小。当算法预测错误时,yH∗(x)yH^*(x)yH(x)的符号为负,则在函数e−xe^{-x}ex上损失较大。二分类指数损失是AdaBoost最经典的损失函数,它在数学推导上的有效性以及在实践过程中很强的指导性让其沿用至今。

多分类指数损失——

L(H(x),y)=exp(−1Ky∗⋅H∗(x))=exp(−1K(y∗1H∗1(x)+y∗2H∗2(x)+...+y∗kH∗k(x)))\begin{aligned} L(H(x),y) &=exp \left( -\frac{1}{K}\boldsymbol{y^* · H^*(x)} \right) \\ & = exp \left( -\frac{1}{K}(y^{*1}H^{*1}(x)+y^{*2}H^{*2}(x) \ + \ ... + y^{*k}H^{*k}(x)) \right) \end{aligned} L(H(x),y)=exp(K1yH(x))=exp(K1(y1H1(x)+y2H2(x) + ...+ykHk(x)))
其中,KKK为总类别数,如四分类[0,1,2,3]的情况时,K=4K=4K=4y∗\boldsymbol{y^*}yH∗(x)\boldsymbol{H^*(x)}H(x)都是根据多分类具体情况、以及集成算法实际输出H(x)H(x)H(x)转化出的向量,其中y∗1y^{*1}y1H∗1(x)H^{*1}(x)H1(x)的上标1都表示当前类别。

在二分类算法中,算法会直接针对二分类中的其中一个类别输出概率,因为在二分类中P(Y=1)=1−P(Y=−1)P(Y=1) = 1 - P(Y=-1)P(Y=1)=1P(Y=1),所以只计算出一类的概率即可判断预测的标签。但在多分类算法中,算法必须针对所有可能的取值类型都输出概率,才能够从中找出最大概率所对应的预测标签。因此在集成算法中,我们对进行多分类预测时,会得到如下的表格:

#多分类预测
clf = DTC(max_depth=2).fit(X_c,y_c)#多分类预测输出的概率结果,取前5个样本
pd.DataFrame(clf.predict_proba(X_c)).iloc[:5,:]

在这里插入图片描述
每一行对应一个样本,每一列则对应该样本的预测标签为某一类别的概率,以上表格就是5个样本在10分类情况下得出的概率表格,而每一个样本的10个概率中,最大概率所对应的类别就是预测类别。而这一转换可以由函数argmax完成。argmax会取出最大值所对应的索引,刚好也就是最大概率所对应的预测标签。

np.argmax(pd.DataFrame(clf.predict_proba(X_c)).iloc[0,:])
#0
np.argmax(pd.DataFrame(clf.predict_proba(X_c)).iloc[1,:])
#7
np.argmax(pd.DataFrame(clf.predict_proba(X_c)).iloc[3,:])
#6

对一棵决策树我们会输出k个概率,对于boosting集成中的每一棵树,在任意样本上都会得到fc=0(x)f^{c=0}(x)fc=0(x)fc=1(x)f^{c=1}(x)fc=1(x)fc=2(x)f^{c=2}(x)fc=2(x)……数个不同的结果。在集成算法当中,每个样本在第t次建树过程中,都会生成针对于不同类别的结果:

Ht0(xi)=Ht−10(xi)+ϕtft0(xi)H_{t}^0(x_i) = H_{t-1}^0(x_i) + \phi_tf_t^0(x_i)Ht0(xi)=Ht10(xi)+ϕtft0(xi)Ht1(xi)=Ht−11(xi)+ϕtft1(xi)H_{t}^1(x_i) = H_{t-1}^1(x_i) + \phi_tf_t^1(x_i)Ht1(xi)=Ht11(xi)+ϕtft1(xi)Ht2(xi)=Ht−12(xi)+ϕtft2(xi)H_{t}^2(x_i) = H_{t-1}^2(x_i) + \phi_tf_t^2(x_i)Ht2(xi)=Ht12(xi)+ϕtft2(xi)…………Htk(xi)=Ht−1k(xi)+ϕtftk(xi)H_{t}^k(x_i) = H_{t-1}^k(x_i) + \phi_tf_t^k(x_i)Htk(xi)=Ht1k(xi)+ϕtftk(xi)

因此,我们可以得到向量[H0(x),H1(x),H2(x),...,Hk(x)][H^0(x),H^1(x),H^2(x),...,H^k(x)][H0(x),H1(x),H2(x),...,Hk(x)],表示当前集成算法计算出的、针对多个类别的概率(也是对全部弱分类器输出的、针对多个类别的概率进行的加权求和)。针对该向量,一定可以得到向量中的一个最大值,该最大值所对应的标签类别就是多分类算法中的预测标签类别。**根据该向量,以及指数损失的特性,我们规定:

H∗(x)={1ifk=argmaxH(x)−1K−1ifk≠argmaxH(x)H^*(x)= \begin{cases} 1& if \ k = argmaxH(x) \\ -\frac{1}{K-1}& if\ k \neq argmaxH(x) \end{cases}H(x)={1K11if k=argmaxH(x)if k=argmaxH(x)

其中,argmaxH(x)argmaxH(x)argmaxH(x)对应的是预测标签,kkk为所有预选标签类别。因此,假设在4分类情况下,集成算法针对样本iii的各个分类输出的概率如下所示,则向量H∗(x)\boldsymbol{H^*(x)}H(x)的取值如下所示:

000111222333
Htk(xi)H_t^k(x_i)Htk(xi)0.10.10.10.20.20.20.20.20.20.50.50.5
H∗(x)H^*(x)H(x)−13-\frac{1}{3}31−13-\frac{1}{3}31−13-\frac{1}{3}31111

其中3就是当前集成算法针对样本iii预测的标签。

另外一方面,y∗\boldsymbol{y^*}y一般来说都是真实标签经过上述处理后的结果。同样是4分类器情况下,假设样本iii的真实标签为2,则向量y∗\boldsymbol{y^*}y的构成如下所示:

000111222333
y∗\boldsymbol{y^*}y−13-\frac{1}{3}31−13-\frac{1}{3}31111−13-\frac{1}{3}31

用公式表示则有:
y∗={1ifk=yi−1K−1ifk≠yiy^*= \begin{cases} 1& if \ k=y_i \\ -\frac{1}{K-1}& if\ k\neq y_i \end{cases}y={1K11if k=yiif k=yi

其中yiy_iyi为样本的真实标签,kkk为所有预选标签类别。不难发现,在此规则下,此时向量y∗\boldsymbol{y^*}y以及向量H∗(x)\boldsymbol{H^*(x)}H(x)的和永远是0,因为向量内部总是1与(K-1)个−1K−1-\frac{1}{K-1}K11相加。

K = 4
y = [1,(-1/(K-1)),(-1/(K-1)),(-1/(K-1))]
int(sum(y))
#0

在多分类算法当中,我们常常求解类似于y∗\boldsymbol{y^*}yH∗(x)\boldsymbol{H^*(x)}H(x)的向量,比如在softmax函数中,当预测值或真实值不等于kkk时,我们赋予的向量值为0,而不是−1K−1-\frac{1}{K-1}K11

softmax的一般规则:

000111222333
Htk(xi)H_t^k(x_i)Htk(xi)0.10.10.10.20.20.20.20.20.20.50.50.5
H∗(x)H^*(x)H(x)000000000111

同时,当K=2时,多分类指数损失的值与二分类指数损失完全一致:
多分类指数损失:

假设K=2,

L=exp(−1K(y∗1H∗1(x)+y∗2H∗2(x)))\begin{aligned} L = exp \left( -\frac{1}{K} \left( y^{*1}H^{*1}(x)+y^{*2}H^{*2}(x) \right) \right) \end{aligned} L=exp(K1(y1H1(x)+y2H2(x)))

假设预测分类 = 真实分类 = 1,

111222
Htk(xi)H_t^k(x_i)Htk(xi)0.70.70.70.30.30.3
H∗(x)H^*(x)H(x)111−12−1-\frac{1}{2-1}211

111222
y∗\boldsymbol{y^*}y111−12−1-\frac{1}{2-1}211

−1K(y∗1H∗1(x)+y∗2H∗2(x))=−12(1∗1+−12−1∗−12−1)=−12(1+1)=−1\begin{aligned} -\frac{1}{K}&\left( y^{*1}H^{*1}(x)+y^{*2}H^{*2}(x) \right)\\ &= -\frac{1}{2} \left( 1 * 1 + \frac{-1}{2-1} * \frac{-1}{2-1} \right)\\ &= -\frac{1}{2} \left( 1 + 1 \right)\\ &= -1 \end{aligned} K1(y1H1(x)+y2H2(x))=21(11+211211)=21(1+1)=1
二分类指数损失,y=1,由于预测正确,所以H∗(x)H^*(x)H(x) = 1

−yH∗(x)=−(1∗1)=−1\begin{aligned} -y&H^*(x)\\ & = -(1 * 1)\\ & = -1 \end{aligned} yH(x)=(11)=1
在实践中,无论是SAMME还是SAMME.R,我们都无法改变使用的损失函数,因此参数中没有为我们提供相应的选择。

  • loss(adaboost回归器才有)
    看完参数algorithm,我们来看参数loss。与分类的情况完全相反,在AdaBoost回归当中,我们能够使用的算法是唯一的,即AdaBoost.R2,但是在R2算法下,我们却可以选择三种损失函数,分别是"linear"(线性),“square”(平方),“exponential”(指数)。

在算法AdaBoost.R2当中,三种损失函数如下定义:

首先:
D=sup∣H(xi)−yi∣,i=1,2,...,ND = sup|H(x_i) - y_i|, i = 1,2,...,ND=supH(xi)yi,i=1,2,...,N

其中yiy_iyi为真实标签,H(xi)H(x_i)H(xi)为预测标签,sup表示“取最大值”,但它与直接写作max的函数的区别在于,max中的元素已是固定的数值,而sup中的元素可以是一个表达式、并让该表达式在i的备选值中循环。上述式子表示,取出1~N号样本中真实值与预测值差距最大的那一组差异来作为D的值

R2算法线性损失——

Li=∣H(xi)−yi∣DL_i = \frac{|H(x_i) - y_i|}{D}Li=DH(xi)yi

R2算法平方损失——

Li=∣H(xi)−yi∣2D2L_i = \frac{|H(x_i) - y_i|^2}{D^2}Li=D2H(xi)yi2

R2算法指数损失——

Li=1−exp(−∣H(xi)−yi∣D)L_i = 1 - exp \left( \frac{-|H(x_i) - y_i|}{D} \right)Li=1exp(DH(xi)yi)

不难发现,其实线性损失就是我们常说的MAE的变体,平方损失就是MSE的变体,而指数损失也与分类中的指数损失高度相似。在R2算法当中,这些损失函数特殊的地方在于分母D。由于D是所有样本中真实值与预测值差异最大的那一组差异,因此任意样本的LiL_iLi在上述线性与平方损失定义下,取值范围都只有[0,1](当真实值=预测值时,取值为0,当真实值-预测值=D时,取值为1)。

特别的,对于指数损失来说,自变量的部分是在[0,1]中取值,因此e−xe^{-x}ex的在该定义域上的值域也为[0,1],因此1−e−x1-e^{-x}1ex的值域为[0,1]。事实上,在R2算法的论文当中,就有明确对损失函数的唯一要求:即值域为[0,1]。该规则使得整个AdaBoost算法的求解流程变得顺畅,具体可以在《2 原理进阶:AdaBoost的求解流程》中看到。

现在,我们已经了解了AdaBoost的全部参数了。不难发现,在AdaBoost的参数空间中,n_estimators与learning_rate是最为重要的两个参数。当我们在进行超参数调整时,注意对这两个参数的组合进行同时调整即可。

参数参数含义
base_estimator弱评估器
n_estimators集成算法中弱评估器的数量
learning_rate迭代中所使用的学习率
algorithm(分类器专属)用于指定分类ADB中使用的具体实现方法
loss(回归器专属)用于指定回归ADB中使用的损失函数
random_state用于控制每次建树之前随机抽样过程的随机数种子
查看全文
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

相关文章

  1. 365天给你一个奇迹 - 考研schedule

    目标 目标院校 北京师范大学体育教学 or 北京体育大学体育教学 专业课 北师大专业课三本书&#xff1a; 考试专业代码是346。考的是学校体育学、运动训练学、运动生理学&#xff0c;北师大的体育综合我是以周登嵩的学校体育学、乔德才的运动生理学&#xff08;第三版&…...

    2024/5/1 0:41:27
  2. K8s系列之:kubectl子命令详解edit

    K8s系列之&#xff1a;kubectl子命令详解edit 在服务器上使用默认编辑器资源&#xff0c;使用这个命令可以编辑多个对象&#xff0c;然后一次性地应用更改。 #编辑名为nginx的服务 kubectl edit svc nginx#在YAML中编辑部署nginx-deployment,并将修改的配置保存在其注释中 ku…...

    2024/5/8 19:55:51
  3. 解决误删Android系统的tmp目录

    Android系统中的/data/local/tmp 目录是一个特殊目录&#xff0c;可以使用adb上传或拉取文件&#xff0c;许多工具也会将运行需要的文件推送到该目录下&#xff0c;如&#xff1a;Android投屏工具Scrcpy。 前几天手抖误删了tmp目录&#xff0c;直接重新创建&#xff0c;发现还是…...

    2024/4/7 20:39:55
  4. HTTP学习

    1 基础概念 1.1 请求和响应报文 客户端——请求报文——>服务器 客户端<——响应报文——服务器 请求报文结构&#xff1a; //第一行是包含了请求方法、URL、协议版本&#xff1b; GET http://www.example.com/ HTTP/1.1//接下来的多行都是请求首部 Header&#xff…...

    2024/4/17 1:00:55
  5. v-model argument is not supported on plain elements 和 ‘v-model‘ directives require no argument.

    好久没写VUE&#xff0c;再写的时候踩了个小坑&#xff1a; <input type“text” v-model:value"value"/>如果你开启了Eslint &#xff0c; 报错应该是 v-model directives require no argument. 我去查了下&#xff0c;大概说的是是eslint对vetur插件的检查出…...

    2024/5/7 2:36:39
  6. Springboot集成RabbitMQ【Topic Exchange】

    本文只针对通配符/主题模式&#xff08;Topic Exchange&#xff09;的使用。 一、生产者端的队列/交换器配置&#xff1a; 这里只有生产者客户端需要配置&#xff0c;消费者端可无需配置。 Configuration public class TopicRabbitConfig {/*** 创建队列* return*/Beanpublic …...

    2024/5/4 14:38:21
  7. goby内测版联合vulmap0.9最新版详细说明加举例CVE-2019-17558漏洞

    一、Goby介绍 Goby是一款新的网络安全测试工具&#xff0c;由赵武Zwell&#xff08;Pangolin、JSky、FOFA作者&#xff09;打造&#xff0c;它能够针对一个目标企业梳理最全的攻击面信息&#xff0c;同时能进行高效、实战化漏洞扫描&#xff0c;并快速地从一个验证入口点&…...

    2024/4/14 8:26:30
  8. Codeforces Round #767 (Div. 2) C. Meximum Array 计算MEX

    MEX 即取mex集合中没有出现过的最小非负整数 如&#xff1a;mex{0&#xff0c;2&#xff0c;3}1&#xff1b; mex{1&#xff0c;2&#xff0c;3}0&#xff1b; 题意&#xff1a;Mihai has just learned about the MEX concept and since he liked it so much, he decided to u…...

    2024/4/29 21:47:10
  9. (VulnHub靶机通关)DC-9

    靶机下载地址&#xff1a;https://download.vulnhub.com/dc/DC-9.zip 主机发现 IP&#xff1a;192.168.43.192 80端口为开放状态&#xff0c;22端口是filtered状态 web渗透 访问80端口的web服务&#xff0c;打开Search界面&#xff0c;输入1 or 11 # 存在sql注入 burpsuite抓…...

    2024/5/4 12:55:56
  10. 第一天 React入门

    React入门 1.1. React简介 1.1.1. 官网 英文官网: https://reactjs.org/中文官网: https://react.docschina.org/ 1.1.2. 介绍描述 用于动态构建用户界面的 JavaScript 库(只关注于视图) 由Facebook开源 1.1.3. React的特点 声明式编码 组件化编码 React Native 编写原…...

    2024/4/14 8:26:12
  11. 力扣5973——价格范围内最高排名的 K 样物品(优先队列+BFS层序遍历)

    题目太长了放链接 力扣5973 思路 题目很长&#xff0c;思路直接但东西很多&#xff0c;topK问题&#xff08;小顶堆&#xff09;BFS 通过BFS从起点开始探索&#xff0c;将满足条件的节点存入topK的优先队列中&#xff0c;答案就是优先队列中的节点​&#xff1b; 因为要记录…...

    2024/4/18 15:57:57
  12. FPGA知识积累【3】

    目录1.查找表&#xff08;LUT&#xff09;原理与结构2.FPGA基本结构3.FPGA的RAM、ROM、CAM4.硬件语言的层次5.寄生效应6.线与逻辑7.竞争冒险8.消除竞争冒险的方法1.查找表&#xff08;LUT&#xff09;原理与结构 ①查找表简称LUT&#xff0c;本质上就是一个RAM。目前FPGA中多数…...

    2024/5/4 19:59:36
  13. JavaWeb笔记(8):Filter过滤器

    1、Filter 是什么过滤器 1、 JavaWeb 三大组件分别是&#xff1a;Servlet 程序、Listener 监听器、Filter 过滤器。2、Filter 过滤器它是 JavaEE 的规范。也就是接口。3、Filter 过滤器作用是&#xff1a; 拦截请求&#xff0c;过滤响应。 拦截请求常见的应用场景有&#xff1…...

    2024/5/5 3:29:17
  14. BGP进阶实验

    实验相关知识点汇总&#xff1a; 1)在BGP协议中&#xff0c;存在一种无法优秀的路由条目&#xff1b;假设R4路由表中存在一条非BGP产生的到达5.5.5.5的路由条目&#xff0c;且该条目用于R4与R5建立BGP邻居关系&#xff1b;那么之后R5再讲5.5.5.5的路由在BGP协议进行宣告&#…...

    2024/4/16 23:45:32
  15. delf配置:基础环境(一)

    一、版本 github配置源码的时候一定要看文档&#xff01;&#xff01;&#xff01;&#xff01; 一定要注意版本要求&#xff0c;否则后期bug一堆&#xff0c;环境重配&#xff01;&#xff01;&#xff01; 官方文档 https://github.com/tensorflow/models/tree/master/resea…...

    2024/4/14 8:27:12
  16. Centos7 安装RabbitMQ及配置(亲测)

    一 版本兼容性 erlang和rabbitmq的版本必须兼容 RabbitMQ Erlang Version Requirements — RabbitMQhttps://www.rabbitmq.com/which-erlang.html 二 安装配置erlang 1.下载erlang ,src https://www.erlang.org/patches/otp-23.3 2解压 tar -zxvf otp_src_23.3.tar.gz …...

    2024/4/18 9:34:58
  17. windows系统go的环境搭建(保姆式教程)

    windows系统go的环境搭建 1. 下载go的编译器 https://golang.google.cn/ 进入官网&#xff0c;点击下载 选择对应的版本&#xff0c;这里下载的是最新的windows版本 下载速度很快&#xff0c;已经下载好了&#xff0c;下面我们双击这个文件 点击next 点击next 选择自己想把它…...

    2024/5/5 2:37:56
  18. Ubuntu:软件常用安装方法

    经过一段时间的了解&#xff0c;相信大家用过了很多种方式对软件进行安装&#xff0c;近期针对此部分进行了系统的梳理。今日发现有新的安装软件的方式&#xff0c;特进行补充。 通常的软件安装主要有四种方式&#xff0c;今日了解到有一种新的方式&#xff0c;目前尚无大量的…...

    2024/4/14 8:26:57
  19. 【opencv】背景消除

    测试用例&#xff1a; 农村监控录像实拍&#xff08;你看清晰度可以吗&#xff09;_哔哩哔哩_bilibili import numpy as np import cv2cap cv2.VideoCapture(0001.哔哩哔哩-农村监控录像实拍&#xff08;你看清晰度可以吗&#xff09;.flv)fgbg cv2.createBackgroundSubtra…...

    2024/4/18 15:23:50
  20. 回顾Redis实现验证码功能

    一 60s防刷功能 //1、接口防刷 String redisCode stringRedisTemplate.opsForValue().get(SmsConstant.SMS_CODE_CACHE_PREFIX phone);Boolean existKey false;if (!StringUtils.isEmpty(redisCode)) {//活动存入redis的时间&#xff0c;用当前时间减去存入redis的时间&…...

    2024/4/14 8:26:52

最新文章

  1. LeetCode 35.搜索插入位置

    给定一个排序数组和一个目标值&#xff0c;在数组中找到目标值&#xff0c;并返回其索引。如果目标值不存在于数组中&#xff0c;返回它将会被按顺序插入的位置。 请必须使用时间复杂度为 O(log n) 的算法。 示例 1: 输入: nums [1,3,5,6], target 5 输出: 2 示例 2: 输入…...

    2024/5/8 22:56:11
  2. 梯度消失和梯度爆炸的一些处理方法

    在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言&#xff0c;在此感激不尽。 权重和梯度的更新公式如下&#xff1a; w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...

    2024/5/7 10:36:02
  3. 【LeetCode热题100】【二叉树】二叉树的中序遍历

    题目链接&#xff1a;94. 二叉树的中序遍历 - 力扣&#xff08;LeetCode&#xff09; 中序遍历就是先遍历左子树再遍历根最后遍历右子树 class Solution { public:void traverse(TreeNode *root) {if (!root)return;traverse(root->left);ans.push_back(root->val);tra…...

    2024/5/5 8:39:08
  4. audio_video_img图片音视频异步可视化加载

    最近在做即时消息&#xff0c;消息类型除了文字还有音频、视频、图片展示&#xff0c;如果消息很多&#xff0c;在切换聊天框时&#xff0c;会有明显卡顿&#xff0c;后续做了懒加载&#xff0c;方案是只加载用户能看到的资源&#xff0c;看不到的先不加载&#xff1b; LazyAud…...

    2024/5/8 2:36:28
  5. 【外汇早评】美通胀数据走低,美元调整

    原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...

    2024/5/8 6:01:22
  6. 【原油贵金属周评】原油多头拥挤,价格调整

    原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...

    2024/5/7 9:45:25
  7. 【外汇周评】靓丽非农不及疲软通胀影响

    原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...

    2024/5/4 23:54:56
  8. 【原油贵金属早评】库存继续增加,油价收跌

    原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...

    2024/5/7 14:25:14
  9. 【外汇早评】日本央行会议纪要不改日元强势

    原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...

    2024/5/4 23:54:56
  10. 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响

    原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...

    2024/5/4 23:55:05
  11. 【外汇早评】美欲与伊朗重谈协议

    原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...

    2024/5/4 23:54:56
  12. 【原油贵金属早评】波动率飙升,市场情绪动荡

    原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...

    2024/5/7 11:36:39
  13. 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试

    原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...

    2024/5/4 23:54:56
  14. 【原油贵金属早评】市场情绪继续恶化,黄金上破

    原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...

    2024/5/6 1:40:42
  15. 【外汇早评】美伊僵持,风险情绪继续升温

    原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...

    2024/5/4 23:54:56
  16. 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势

    原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...

    2024/5/8 20:48:49
  17. 氧生福地 玩美北湖(上)——为时光守候两千年

    原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...

    2024/5/7 9:26:26
  18. 氧生福地 玩美北湖(中)——永春梯田里的美与鲜

    原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...

    2024/5/4 23:54:56
  19. 氧生福地 玩美北湖(下)——奔跑吧骚年!

    原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...

    2024/5/8 19:33:07
  20. 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!

    原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...

    2024/5/5 8:13:33
  21. 「发现」铁皮石斛仙草之神奇功效用于医用面膜

    原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...

    2024/5/8 20:38:49
  22. 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者

    原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...

    2024/5/4 23:54:58
  23. 广州械字号面膜生产厂家OEM/ODM4项须知!

    原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...

    2024/5/6 21:42:42
  24. 械字号医用眼膜缓解用眼过度到底有无作用?

    原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...

    2024/5/4 23:54:56
  25. 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...

    解析如下&#xff1a;1、长按电脑电源键直至关机&#xff0c;然后再按一次电源健重启电脑&#xff0c;按F8健进入安全模式2、安全模式下进入Windows系统桌面后&#xff0c;按住“winR”打开运行窗口&#xff0c;输入“services.msc”打开服务设置3、在服务界面&#xff0c;选中…...

    2022/11/19 21:17:18
  26. 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。

    %读入6幅图像&#xff08;每一幅图像的大小是564*564&#xff09; f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...

    2022/11/19 21:17:16
  27. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...

    win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面&#xff0c;在等待界面中我们需要等待操作结束才能关机&#xff0c;虽然这比较麻烦&#xff0c;但是对系统进行配置和升级…...

    2022/11/19 21:17:15
  28. 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...

    有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows&#xff0c;请勿关闭计算机”的提示&#xff0c;要过很久才能进入系统&#xff0c;有的用户甚至几个小时也无法进入&#xff0c;下面就教大家这个问题的解决方法。第一种方法&#xff1a;我们首先在左下角的“开始…...

    2022/11/19 21:17:14
  29. win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...

    置信有很多用户都跟小编一样遇到过这样的问题&#xff0c;电脑时发现开机屏幕显现“正在配置Windows Update&#xff0c;请勿关机”(如下图所示)&#xff0c;而且还需求等大约5分钟才干进入系统。这是怎样回事呢&#xff1f;一切都是正常操作的&#xff0c;为什么开时机呈现“正…...

    2022/11/19 21:17:13
  30. 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...

    Win7系统开机启动时总是出现“配置Windows请勿关机”的提示&#xff0c;没过几秒后电脑自动重启&#xff0c;每次开机都这样无法进入系统&#xff0c;此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一&#xff1a;开机按下F8&#xff0c;在出现的Windows高级启动选…...

    2022/11/19 21:17:12
  31. 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...

    有不少windows10系统用户反映说碰到这样一个情况&#xff0c;就是电脑提示正在准备windows请勿关闭计算机&#xff0c;碰到这样的问题该怎么解决呢&#xff0c;现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法&#xff1a;1、2、依次…...

    2022/11/19 21:17:11
  32. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...

    今天和大家分享一下win7系统重装了Win7旗舰版系统后&#xff0c;每次关机的时候桌面上都会显示一个“配置Windows Update的界面&#xff0c;提示请勿关闭计算机”&#xff0c;每次停留好几分钟才能正常关机&#xff0c;导致什么情况引起的呢&#xff1f;出现配置Windows Update…...

    2022/11/19 21:17:10
  33. 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...

    只能是等着&#xff0c;别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚&#xff0c;只能是考虑备份数据后重装系统了。解决来方案一&#xff1a;管理员运行cmd&#xff1a;net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...

    2022/11/19 21:17:09
  34. 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?

    原标题&#xff1a;电脑提示“配置Windows Update请勿关闭计算机”怎么办&#xff1f;win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢&#xff1f;一般的方…...

    2022/11/19 21:17:08
  35. 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...

    关机提示 windows7 正在配置windows 请勿关闭计算机 &#xff0c;然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;关机提示 windows7 正在配…...

    2022/11/19 21:17:05
  36. 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...

    钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...

    2022/11/19 21:17:05
  37. 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...

    前几天班里有位学生电脑(windows 7系统)出问题了&#xff0c;具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面&#xff0c;长时间没反应&#xff0c;无法进入系统。这个问题原来帮其他同学也解决过&#xff0c;网上搜了不少资料&#x…...

    2022/11/19 21:17:04
  38. 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...

    本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法&#xff0c;并在最后教给你1种保护系统安全的好方法&#xff0c;一起来看看&#xff01;电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中&#xff0c;添加了1个新功能在“磁…...

    2022/11/19 21:17:03
  39. 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...

    许多用户在长期不使用电脑的时候&#xff0c;开启电脑发现电脑显示&#xff1a;配置windows更新失败&#xff0c;正在还原更改&#xff0c;请勿关闭计算机。。.这要怎么办呢&#xff1f;下面小编就带着大家一起看看吧&#xff01;如果能够正常进入系统&#xff0c;建议您暂时移…...

    2022/11/19 21:17:02
  40. 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...

    配置windows update失败 还原更改 请勿关闭计算机&#xff0c;电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;配置windows update失败 还原更改 请勿关闭计算机&#x…...

    2022/11/19 21:17:01
  41. 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...

    不知道大家有没有遇到过这样的一个问题&#xff0c;就是我们的win7系统在关机的时候&#xff0c;总是喜欢显示“准备配置windows&#xff0c;请勿关机”这样的一个页面&#xff0c;没有什么大碍&#xff0c;但是如果一直等着的话就要两个小时甚至更久都关不了机&#xff0c;非常…...

    2022/11/19 21:17:00
  42. 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...

    当电脑出现正在准备配置windows请勿关闭计算机时&#xff0c;一般是您正对windows进行升级&#xff0c;但是这个要是长时间没有反应&#xff0c;我们不能再傻等下去了。可能是电脑出了别的问题了&#xff0c;来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...

    2022/11/19 21:16:59
  43. 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...

    我们使用电脑的过程中有时会遇到这种情况&#xff0c;当我们打开电脑之后&#xff0c;发现一直停留在一个界面&#xff1a;“配置Windows Update失败&#xff0c;还原更改请勿关闭计算机”&#xff0c;等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢&#xff0…...

    2022/11/19 21:16:58
  44. 如何在iPhone上关闭“请勿打扰”

    Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...

    2022/11/19 21:16:57