这里我们将对特征工程中经常用到的特征数据选择方法进行介绍使用和说明,主要分为三个部分,分别为:单变量选择、线性模型选择和随机森林模型特征选择。

 

三部曲一:单变量选择

        对于数据科学家或机器学习从业人员而言,对特征选择/排序有很好的了解可能是一笔宝贵的财富。对这些方法的良好掌握可以带来更好的性能模型,可以更好地理解数据的底层结构和特征,并可以更好地了解构成许多机器学习模型基础的算法。
使用特征选择通常有两个原因:
1.减少特征数量,以减少过度拟合并提高模型的泛化性。
2.更好地了解功能及其与响应变量的关系。

       这两个目标常常彼此矛盾,因此需要不同的方法:根据手头的数据,对目标(1)有利的特征选择方法不一定对目标(2)有利,反之亦然。但是,似乎经常发生的事情是人们不加选择地使用自己喜欢的方法(或从选择的工具中最方便地使用的方法),尤其是更适合于(1)实现(2)的方法。

      同时,机器学习或数据挖掘教科书中并未特别详尽地介绍功能选择,部分原因是它们通常被视为学习算法的自然副作用,不需要单独介绍。

      在这篇博客文章中,我将尝试介绍一些比较流行的功能选择方法及其优缺点,以及Python和scikit-learn中的代码示例。我还将在样本数据集中并排运行这些方法,这将突出显示它们之间的一些主要差异。在所有示例中,我都专注于回归数据集,但是大多数讨论和示例同样适用于分类数据集和方法。

       单变量特征选择
单变量特征选择会单独检查每个特征,以确定特征与响应变量之间关系的强度。这些方法易于运行和理解,通常特别有利于更好地理解数据(但不一定要优化功能集以获得更好的通用性)。单变量选择有很多不同的选项。

     皮尔逊相关
理解要素与响应变量之间关系的最简单方法之一是皮尔森相关系数,它可以测量两个变量之间的线性相关性。 结果值位于[-1; 1],其中-1表示完全负相关(随着一个变量的增加,另一个变量减小),+ 1表示完全正相关,而0表示两个变量之间没有线性相关。

    它计算起来既快速又容易,并且通常是对数据运行的第一件事。 Scipy的pearsonr方法同时计算相关性和相关性的p值,粗略显示了不相关系统创建此大小相关性值的可能性。

import numpy as np
from scipy.stats import pearsonr
np.random.seed(0)
size = 300
x = np.random.normal(0, 1, size)
print "Lower noise", pearsonr(x, x + np.random.normal(0, 1, size))
print "Higher noise", pearsonr(x, x + np.random.normal(0, 10, size))

     结果如下:

Lower noise (0.71824836862138386, 7.3240173129992273e-49)
Higher noise (0.057964292079338148, 0.31700993885324746)

       从示例中可以看到,我们将变量与自身的嘈杂版本进行比较。 噪声量较小时,相关性相对较强,p值非常低,而在嘈杂的比较中,相关性非常小,而且p值很高,这意味着很可能会观察到这种相关性 完全是偶然的。

       Scikit-learn提供了f_regrssion方法,用于批量计算一组要素的p值(和基础F值),因此这是一种便捷的方法,可以对数据集进行一次关联测试,例如将其包含在 sklearn的管道。

      皮尔逊相关作为特征排名机制的一个明显缺点是,它仅对线性关系敏感。 如果该关系是非线性的,则即使两个变量之间存在1-1对应关系,Pearson相关也可以接近于零。
例如,当x以0为中心时,x和x2之间的相关性为零。

x = np.random.uniform(-1, 1, 100000)
print pearsonr(x, x**2)[0]

      结果如下所示:

-0.00230804707612

      有关与上述类似的更多示例,请参见以下示例图。
此外,正如Anscombe的四重奏所说明的那样,仅依靠相关值来解释两个变量的关系可能会产生极大的误导,因此始终值得对数据进行绘图。

       互信息和最大信息系数(MIC)
相关估计的另一个更可靠的选择是互信息,定义为:

      它测量变量之间的相互依赖性,通常以位为单位。

      但是出于两个原因,直接将其用于特征排名可能很不方便。 首先,它不是指标,也没有规范化(即不在固定范围内),因此MI值在两个数据集之间是无法比拟的。 其次,连续变量的计算可能很不方便:通常,变量需要通过分箱进行离散化,但是互信息得分对分箱选择可能非常敏感。

        最大信息系数是为解决这些缺点而开发的技术。 它搜索最佳分箱,并将相互信息得分转换为范围[0; 1]的度量。 在python中,MIC可在minepy库中获得。

      回顾y = x2的示例,MIC发现互信息为1,即最大。

from minepy import MINE
m = MINE()
x = np.random.uniform(-1, 1, 10000)
m.compute_score(x, x**2)
print m.mic()

       结果如下所示:

1.0

       人们对MIC的统计能力提出了一些批评,即当原假设为假时,可以拒绝原假设的能力。 根据特定的数据集及其嘈杂程度,这可能是问题,也可能不是问题。

       距离相关
相关估计的另一种强大的竞争方法是距离相关,它专门设计用于解决Pearson相关的缺点。 虽然对于Pearson相关,相关值0并不表示独立性(从x vs x2示例中可以看出),而距离相关性0则表示这两个变量之间没有相关性。

       距离相关性例如在R的能量包中提供(还有Python的要点)。

#R-code
> x = runif (1000, -1, 1)
> dcor(x, x**2)
[1] 0.4943864

       当关系接近线性时,相对于诸如MIC或距离相关之类的更复杂的方法,偏爱Pearson相关至少有两个原因。一方面,计算Pearson相关性要快得多,这对于大数据集而言可能很重要。其次,相关系数的范围是[-1; 1](而不是MIC和距离相关的[0; 1])。这可以传递关于该关系是负还是正的有用的额外信息,即较高的特征值是否暗示响应变量的较高值,反之亦然。但是,当然只有两个变量之间的关系是单调的时,负相关与正相关的问题才是恰当的。

       基于模型的排名
最后,可以使用任意机器学习方法,使用每个单独的功能为响应变量建立预测模型,并测量每个模型的性能。实际上,这已经与Pearson的相关系数一起使用,因为它等效于用于线性回归预测的标准化回归系数。如果特征和响应变量之间的关系是非线性的,则有许多替代方法,例如,基于树的方法(决策树,随机森林),具有基本展开的线性模型等。基于树的方法可能是最简单的方法之一可以应用,因为它们可以很好地对非线性关系建模,并且不需要太多调整。要避免的主要事情是过拟合,因此树的深度应该相对较小,并且应该应用交叉验证。

       这是在波士顿住房价格数据集上使用sklearn的随机森林回归器进行的单变量选择,该样本包含了波士顿郊区的住房价格以及许多关键属性。

from sklearn.cross_validation import cross_val_score, ShuffleSplit
from sklearn.datasets import load_boston
from sklearn.ensemble import RandomForestRegressor#Load boston housing dataset as an example
boston = load_boston()
X = boston["data"]
Y = boston["target"]
names = boston["feature_names"]rf = RandomForestRegressor(n_estimators=20, max_depth=4)
scores = []
for i in range(X.shape[1]):score = cross_val_score(rf, X[:, i:i+1], Y, scoring="r2",cv=ShuffleSplit(len(X), 3, .3))scores.append((round(np.mean(score), 3), names[i]))
print sorted(scores, reverse=True)

       结果如下所示:

[(0.636, 'LSTAT'), (0.59, 'RM'), (0.472, 'NOX'), (0.369, 'INDUS'), (0.311, 'PTRATIO'), (0.24, 'TAX'), (0.24, 'CRIM'), (0.185, 'RAD'), (0.16, 'ZN'), (0.087, 'B'), (0.062, 'DIS'), (0.036, 'CHAS'), (0.027, 'AGE')]

 

三部曲二:线性模型和正则化

       在我以前的文章中,我讨论了单变量特征选择,其中相对于响应变量独立评估每个特征。另一种流行的方法是利用机器学习模型进行特征排名。许多机器学习模型具有某些固有的内部特征等级,或者很容易从模型的结构生成等级。这适用于回归模型,SVM,决策树,随机森林等。

       在这篇文章中,我将讨论使用回归模型的系数来选择和解释特征。这是基于以下思想:当所有特征均处于相同比例时,最重要的特征应在模型中具有最高系数,而与输出变量不相关的特征应具有接近零的系数值。当数据不太嘈杂(或者与要素数量相比有很多数据)并且要素(相对)独立时,即使使用简单的线性回归模型,该方法也可以很好地工作:

from sklearn.linear_model import LinearRegression
import numpy as npnp.random.seed(0)
size = 5000#A dataset with 3 features
X = np.random.normal(0, 1, (size, 3))
#Y = X0 + 2*X1 + noise
Y = X[:,0] + 2*X[:,1] + np.random.normal(0, 2, size)
lr = LinearRegression()
lr.fit(X, Y)#A helper method for pretty-printing linear models
def pretty_print_linear(coefs, names = None, sort = False):if names == None:names = ["X%s" % x for x in range(len(coefs))]lst = zip(coefs, names)if sort:lst = sorted(lst,  key = lambda x:-np.abs(x[0]))return " + ".join("%s * %s" % (round(coef, 3), name)for coef, name in lst)print "Linear model:", pretty_print_linear(lr.coef_)

      结果如下所示:

Linear model: 0.984 * X0 + 1.995 * X1 + -0.041 * X2

         正如您在本示例中看到的那样,尽管数据中存在很大的噪声,但是该模型确实确实很好地恢复了数据的基础结构。但是实际上,该学习问题特别适合于线性模型:特征与响应变量之间的纯线性关系,而特征之间没有相关性。

      当存在多个(线性)相关特征时(就像许多现实生活中的数据集一样),模型变得不稳定,这意味着数据中的小变化会导致模型中的大变化(即系数值),从而进行模型解释非常困难(所谓的多重共线性问题)。例如,假设我们有一个数据集,其中数据的“真实”模型为Y = X1 + X2,而我们观察到Y ^ = X1 + X2 + ϵ,其中ϵ为噪声。此外,假定X1和X2线性相关,使得X1≈X2。理想情况下,学习模型将为Y = X1 + X2。但是根据噪声量ϵ,手头的数据量以及X1和X2之间的相关性,也可能是Y = 2X1(即仅使用X1作为预测变量)或Y = -X1 + 3X2(系数可能恰好适合嘈杂的训练集)等。

      让我们看一下与随机森林示例相同的相关数据集,其中添加了一些噪声。

from sklearn.linear_model import LinearRegressionsize = 100
np.random.seed(seed=5)X_seed = np.random.normal(0, 1, size)
X1 = X_seed + np.random.normal(0, .1, size)
X2 = X_seed + np.random.normal(0, .1, size)
X3 = X_seed + np.random.normal(0, .1, size)Y = X1 + X2 + X3 + np.random.normal(0,1, size)
X = np.array([X1, X2, X3]).Tlr = LinearRegression()
lr.fit(X,Y)
print "Linear model:", pretty_print_linear(lr.coef_)

       结果如下所示:

Linear model: -1.291 * X0 + 1.591 * X1 + 2.747 * X2

        系数总计约3,因此我们可以预期学习的模型表现良好。 另一方面,如果我们要解释面值的系数,则根据模型X3对输出变量具有很强的正影响,而X1具有负的影响。 实际上,所有功能几乎均与输出变量相关。

        相同的方法和注意事项适用于其他类似的线性方法,例如逻辑回归。

       正则化模型
正则化是一种用于向模型添加其他约束或惩罚的方法,目的是防止过度拟合并提高泛化性。代替最小化损失函数E(X,Y),最小化的损失函数变为E(X,Y)+α∥w∥,其中w是模型系数的向量,∥⋅∥通常是L1或L2范数, α是可调自由参数,指定正则化量(因此α= 0表示未正则化模型)。对于回归模型,两种广泛使用的正则化方法是L1和L2正则化,在线性回归中应用时也称为套索和岭回归。

       L1正则化/套索
L1正则化加罚分α∑ni = 1 | wi |到损失函数(L1-范数)。由于每个非零系数都会增加惩罚,因此它会迫使弱特征的系数为零。因此,L1正则化产生稀疏解,从而固有地执行特征选择。
对于回归,Scikit-learn提供Lasso用于线性回归和Logistic回归,L1罚分用于分类。

       让我们在具有良好α值的Boston住房数据集上运行Lasso(例如,可以通过网格搜索找到Lasso):

from sklearn.linear_model import Lasso
from sklearn.preprocessing import StandardScaler
from sklearn.datasets import load_bostonboston = load_boston()
scaler = StandardScaler()
X = scaler.fit_transform(boston["data"])
Y = boston["target"]
names = boston["feature_names"]lasso = Lasso(alpha=.3)
lasso.fit(X, Y)print "Lasso model: ", pretty_print_linear(lasso.coef_, names, sort = True)

       结果如下所示:

Lasso model: -3.707 * LSTAT + 2.992 * RM + -1.757 * PTRATIO + -1.081 * DIS + -0.7 * NOX + 0.631 * B + 0.54 * CHAS + -0.236 * CRIM + 0.081 * ZN + -0.0 * INDUS + -0.0 * AGE + 0.0 * RAD + -0.0 * TAX

         我们看到许多特征的系数为0。如果进一步增加α,则解将为稀疏和稀疏,即,越来越多的特征的系数为0。

          但是请注意,L1正则回归与非正则线性模型相似,因此不稳定,这意味着即使在数据中存在相关特征时,即使在较小的数据变化下,系数(以及特征等级)也可能发生显着变化。这使我们进入了L2正则化。

        L2正则化/ Ridge回归
L2正则化(称为线性回归的岭回归)将L2范数罚分(α∑ni = 1w2i)添加到损失函数中。由于系数在惩罚表达式中是平方的,因此它具有与L1范数不同的效果,即,它迫使系数值更均匀地分布。对于相关特征,这意味着它们倾向于获得相似的系数。回到Y = X1 + X2的示例,其中X1和X2高度相关,那么对于L1,无论学习模型是Y = 1 * X1 + 1 * X2还是Y = 2 * X1 + 0,惩罚都是相同的* X2。在这两种情况下,惩罚均为2 *α。但是,对于L2,第一个模型的惩罚为12 + 12 =2α,而对于第二个模型,惩罚为22 + 02 =4α。

       这样的结果是模型更加稳定(系数不随较小的数据变化而波动,就像非正规模型或L1模型一样)。因此,尽管L2正则化执行的功能选择与L1不同,但对于特征*解释*则更有用:预测特征将获得非零系数,而L1通常不是如此。

         让我们再次查看具有三个相关特征的示例,使用不同的随机种子运行示例10次,以强调L2回归的稳定性。

from sklearn.linear_model import Ridge
from sklearn.metrics import r2_score
size = 100#We run the method 10 times with different random seeds
for i in range(10):print "Random seed %s" % inp.random.seed(seed=i)X_seed = np.random.normal(0, 1, size)X1 = X_seed + np.random.normal(0, .1, size)X2 = X_seed + np.random.normal(0, .1, size)X3 = X_seed + np.random.normal(0, .1, size)Y = X1 + X2 + X3 + np.random.normal(0, 1, size)X = np.array([X1, X2, X3]).Tlr = LinearRegression()lr.fit(X,Y)print "Linear model:", pretty_print_linear(lr.coef_)ridge = Ridge(alpha=10)ridge.fit(X,Y)print "Ridge model:", pretty_print_linear(ridge.coef_)print

        结果如下所示:

Random seed 0
Linear model: 0.728 * X0 + 2.309 * X1 + -0.082 * X2
Ridge model: 0.938 * X0 + 1.059 * X1 + 0.877 * X2Random seed 1
Linear model: 1.152 * X0 + 2.366 * X1 + -0.599 * X2
Ridge model: 0.984 * X0 + 1.068 * X1 + 0.759 * X2Random seed 2
Linear model: 0.697 * X0 + 0.322 * X1 + 2.086 * X2
Ridge model: 0.972 * X0 + 0.943 * X1 + 1.085 * X2Random seed 3
Linear model: 0.287 * X0 + 1.254 * X1 + 1.491 * X2
Ridge model: 0.919 * X0 + 1.005 * X1 + 1.033 * X2Random seed 4
Linear model: 0.187 * X0 + 0.772 * X1 + 2.189 * X2
Ridge model: 0.964 * X0 + 0.982 * X1 + 1.098 * X2Random seed 5
Linear model: -1.291 * X0 + 1.591 * X1 + 2.747 * X2
Ridge model: 0.758 * X0 + 1.011 * X1 + 1.139 * X2Random seed 6
Linear model: 1.199 * X0 + -0.031 * X1 + 1.915 * X2
Ridge model: 1.016 * X0 + 0.89 * X1 + 1.091 * X2Random seed 7
Linear model: 1.474 * X0 + 1.762 * X1 + -0.151 * X2
Ridge model: 1.018 * X0 + 1.039 * X1 + 0.901 * X2Random seed 8
Linear model: 0.084 * X0 + 1.88 * X1 + 1.107 * X2
Ridge model: 0.907 * X0 + 1.071 * X1 + 1.008 * X2Random seed 9
Linear model: 0.714 * X0 + 0.776 * X1 + 1.364 * X2
Ridge model: 0.896 * X0 + 0.903 * X1 + 0.98 * X2

        从示例中可以看到,根据生成的数据,线性回归的系数差异很大。 但是,对于L2正则化模型,系数非常稳定,并且紧密反映了数据的生成方式(所有系数均接近1)。

 

三部曲三:随机森林模型选择

      随机森林特征重要性
随机森林由于其相对较高的准确性,鲁棒性和易用性而成为最受欢迎的机器学习方法之一。它们还提供了两种简单的特征选择方法:平均减少杂质和平均减少准确性。

       平均减少杂质
随机森林由许多决策树组成。决策树中的每个节点都是单个功能的条件,旨在将数据集分为两个,以便相似的响应值最终位于同一集合中。选择(局部)最佳条件所基于的措施称为杂质。对于分类,通常是基尼杂质或信息增益/熵,而对于回归树则是方差。因此,当训练一棵树时,可以计算出每个特征将一棵树中的加权杂质减少多少。对于森林,可以平均每个特征的杂质减少量,并根据此度量对特征进行排名。

      这是sklearn的“随机森林”实现(随机森林分类器和随机森林回归器)中暴露的功能重要性衡量指标。

from sklearn.datasets import load_boston
from sklearn.ensemble import RandomForestRegressor
import numpy as np
#Load boston housing dataset as an example
boston = load_boston()
X = boston["data"]
Y = boston["target"]
names = boston["feature_names"]
rf = RandomForestRegressor()
rf.fit(X, Y)
print "Features sorted by their score:"
print sorted(zip(map(lambda x: round(x, 4), rf.feature_importances_), names), reverse=True)

        结果如下所示:

Features sorted by their score:
[(0.5298, 'LSTAT'), (0.4116, 'RM'), (0.0252, 'DIS'), (0.0172, 'CRIM'), (0.0065, 'NOX'), (0.0035, 'PTRATIO'), (0.0021, 'TAX'), (0.0017, 'AGE'), (0.0012, 'B'), (0.0008, 'INDUS'), (0.0004, 'RAD'), (0.0001, 'CHAS'), (0.0, 'ZN')]

         使用基于杂质的排名时,需要牢记一些注意事项。首先,基于杂质减少的特征选择偏向于选择具有更多类别的变量(请参阅随机森林变量重要性评估中的偏见)。其次,当数据集具有两个(或多个)相关特征时,则从模型的角度来看,这些相关特征中的任何一个都可用作预测变量,而没有一个相对于其他特征的具体偏好。但是一旦使用了它们中的一个,其他的重要性就大大降低了,因为有效地去除了它们可以去除的杂质已经被第一个特征去除了。结果,它们的重要性将降低。当我们要使用特征选择来减少过度拟合时,这不是问题,因为删除大部分由其他特征重复的特征是有意义的。但是,在解释数据时,可能会得出错误的结论,即其中一个变量是强预测变量,而同一组中的其他变量则不重要,而实际上它们在与响应变量之间的关系非常接近。

       由于在每个节点创建时随机选择了特征,因此这种现象的影响有所降低,但通常效果并未完全消除。在以下示例中,我们具有三个相关变量X0,X1,X2,并且数据中没有噪声,而输出变量只是这三个特征的总和:

size = 10000
np.random.seed(seed=10)
X_seed = np.random.normal(0, 1, size)
X0 = X_seed + np.random.normal(0, .1, size)
X1 = X_seed + np.random.normal(0, .1, size)
X2 = X_seed + np.random.normal(0, .1, size)
X = np.array([X0, X1, X2]).T
Y = X0 + X1 + X2rf = RandomForestRegressor(n_estimators=20, max_features=2)
rf.fit(X, Y);
print "Scores for X0, X1, X2:", map(lambda x:round (x,3),rf.feature_importances_)

       结果如下所示:

Scores for X0, X1, X2: [0.278, 0.66, 0.062]

         当我们计算特征重要性时,我们发现X1的重要性比X2高出10倍以上,而它们的“真实”重要性却非常相似。尽管数据无噪声,但仍 会发生这种情况,我们使用20棵树,特征的随机选择(在每个分割处仅考虑三个特征中的两个)和足够大的数据集。

但是要指出的一件事是,解释相关变量的重要性/等级的困难不是特定于随机森林的,而是适用于大多数基于模型的特征选择方法。

       平均降低精度
另一种流行的特征选择方法是直接测量每个特征对模型准确性的影响。一般的想法是置换每个特征的值并测量多少置换会降低模型的准确性。显然,对于不重要的变量,排列对模型精度应该几乎没有影响,而对重要变量进行排列应该会大大降低模型准确性。

        该方法没有直接在sklearn中公开,但是实现起来很简单。继续前面的对波士顿住房数据集中的要素进行排名的示例:

from sklearn.cross_validation import ShuffleSplit
from sklearn.metrics import r2_score
from collections import defaultdictX = boston["data"]
Y = boston["target"]rf = RandomForestRegressor()
scores = defaultdict(list)#crossvalidate the scores on a number of different random splits of the data
for train_idx, test_idx in ShuffleSplit(len(X), 100, .3):X_train, X_test = X[train_idx], X[test_idx]Y_train, Y_test = Y[train_idx], Y[test_idx]r = rf.fit(X_train, Y_train)acc = r2_score(Y_test, rf.predict(X_test))for i in range(X.shape[1]):X_t = X_test.copy()np.random.shuffle(X_t[:, i])shuff_acc = r2_score(Y_test, rf.predict(X_t))scores[names[i]].append((acc-shuff_acc)/acc)
print "Features sorted by their score:"
print sorted([(round(np.mean(score), 4), feat) forfeat, score in scores.items()], reverse=True)

       结果如下所示:

Features sorted by their score:
[(0.7276, 'LSTAT'), (0.5675, 'RM'), (0.0867, 'DIS'), (0.0407, 'NOX'), (0.0351, 'CRIM'), (0.0233, 'PTRATIO'), (0.0168, 'TAX'), (0.0122, 'AGE'), (0.005, 'B'), (0.0048, 'INDUS'), (0.0043, 'RAD'), (0.0004, 'ZN'), (0.0001, 'CHAS')]

         在此示例中,LSTAT和RM是两个会对模型性能产生重大影响的功能:对它们进行置换会使模型性能分别降低约73%和约57%。 请记住,尽管仅在对模型进行了所有这些功能训练(并取决于这些特征)之后才进行这些测量。 这并不意味着如果我们训练没有这些功能的模型,模型性能就会下降那么大,因为可以使用其他相关的功能来代替。

原文地址:
Feature selection – Part I: univariate selection

Selecting good features – Part II: linear models and regularization

Selecting good features – Part III: random forests

      文章中部分公式显示出了问题,如果需要详细了解的话建议阅读下原文内容。

查看全文
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

相关文章

  1. 35.while、字符串

    一、while(1)练习:计算0-100之间所有数字的累积求和 Python中的计数方法:常见的计数方法有两种,可以分为自然计数法(从1开始);程序计数法(从0开始),因此,大家在编写程序时,应该养成习惯,除非需求特殊,否则循环的计数从0开始。 循环计算:在程序开发中,通常遇到…...

    2024/4/24 13:54:45
  2. 测试用例概念学习

    1、什么才是“好的”测试用例好的用例一定是是一个完备的集合,它能覆盖所有等价类以及边界值,与等否发现缺陷无关(发现软件缺陷可能性大的测试用例)2、用什么方法来量化发现软件缺陷可能性,如何评估还存在未发现缺陷的可能性一般采用等价类,错误推断,边界值测定等价类:…...

    2024/4/24 13:54:41
  3. leetcode题目

    <!DOCTYPE html> <html><head><meta charset="utf-8"><title>LeetCode题 - 题目列表</title><link rel="stylesheet" href="https://cdn.staticfile.org/twitter-bootstrap/3.3.7/css/bootstrap.min.css"…...

    2024/5/5 10:56:13
  4. LTE网络-EPC(分组核心网)

    EPC(Evolved Packet Core),分组核心网,4G核心网络。该系统的特点为仅有分组域而无电路域、基于全IP结构、控制与承载分离且网络结构扁平化,其中主要包含MME、SGW、PGW、PCRF等网元。其中SGW和PGW常常合设并被称为SAE-GW。1、EPC的组成EPC主要由MME、SGW、PGW、PCRF等网元构…...

    2024/5/5 9:33:10
  5. java实现微信注册登录

    转载请表明出处 https://blog.csdn.net/Amor_Leo/article/details/106843838 谢谢java实现微信注册登录开发准备yaml业务层工具类 微信用户对应一个小程序都有一个唯一的openid,微信授权登录,微信授权登录的核心就是获取这个openid并判断数据库是否存在 微信开放平台 开发准…...

    2024/5/5 13:50:15
  6. JSON解析格式化工具——非插件(超好用推荐)

    原因:云桌面上外网连不上,不能用在线json解析,就想找个程序工具或者Chrome插件。以为就一个小插件一小会就能弄好,结果找了好几个网址用了快有一小时才找到满意的,chrome搬运的下载资源都试了不能用,或者jsonformatter插件是要发送接口请求才能返回json,但是我想把已有的…...

    2024/5/5 4:08:06
  7. java加解密(cipher / mac/ signature)

    前言本文主要讲解常用加密算法,消息摘要,二进制字符变换等的java实现,对于加密算法本身的原理只会做简单的介绍,详细的原理可百度。相关概念加密加密是指将可读取的明文作为输入,通过特定的变换操作得到不易读取的输出(通常是二进制序列),目前常用的加密算法包括 对称加密…...

    2024/4/15 3:31:04
  8. rabbitMq重复ack导致消息队列堵塞

    1.问题排查 做活动需求,用到rabbitMq接受上游业务的订单消息;上线一个月之后线上mq突发消息队列堵塞;查看consumer日志,发现服务已经2天没有消费,诡异的是所有的consumer使用的同一个exchange,但只有这条队列堵塞,到测试环境手动发消息,正常消费,无法复现。重启线上服…...

    2024/4/15 3:31:01
  9. js动态添加行和列(创建表格)

    最近做项目的时候遇到了需要页面动态创建表格,在此记录一下,以免忘记。 介绍两种方法: 第一种: var qygdrow=[{"id":1,"name":"小王"},{"id":2,"name":"小孙"},{"id":3,"name":"小李…...

    2024/5/5 5:01:51
  10. CI与CD之Docker上安装Jenkins

    一.CI,CD,Jenkins的介绍 CI:持续集成(Continuous integration,简称 CI),在传统的软件开发环境中,有集成,但是没有持续集成这种说法,长时间的分支与主干脱离,导致分支与主干可能存在较大偏差,在集成代码的时候可能需要花费数小时更久的时间来修复代码,以便最终将代码…...

    2024/5/5 13:17:06
  11. PTA 7-27 时间换算 (15分) 模拟题

    本题要求编写程序,以hh:mm:ss的格式输出某给定时间再过n秒后的时间值(超过23:59:59就从0点开始计时)。 输入格式: 输入在第一行中以hh:mm:ss的格式给出起始时间,第二行给出整秒数n(<60)。 输出格式: 输出在一行中给出hh:mm:ss格式的结果时间。 输入样例: 11:59:40 …...

    2024/4/15 3:30:58
  12. 在windows中实现Flume日志收集

    一、flume的简介任何一个系统在运行的时候都会产生大量的日志信息,我们需要对这些日志进行分析,在分析日志之前,我们需要将分散在生产系统中的日志收集起来。Flume就是这样的日志采集系统。1.主要有三个组件: Source:消费web系统这样的外部数据源中的数据(一般就是web系统…...

    2024/5/3 16:16:36
  13. JAVA 堆内存、栈内存、方法区

    java内存栈区(一)基本数据类型的变量(二)对象的引用变量,s优缺点堆区(一)存放由new创建的对象和数组优缺点方法区/静态区栈区 由编译器自动分配释放 ,存放函数的参数值,局部变量的值等 (一)基本数据类型的变量 如int a = 3; 这里的a是一个指向int类型的引用,指向3这…...

    2024/4/30 20:27:16
  14. c++ 中NULL和nullptr的区别

    在编写c程序时候只看到过NULL,而在C++的编程中,我们可以看到NULL和nullptr两种关键字,其实nullptr是C++11版本中新加入的,它的出现是为了解决NULL表示空指针在C++中具有二义性的问题,为了弄明白这个问题,我查找了一些资料,总结如下。一、C程序中的NULL在C语言中,NULL通…...

    2024/4/24 13:54:40
  15. 抽象类,接口,内部类

    JavaSE 一.抽象类: 1.概念: 被abstract修饰的类或存在抽象方法的类。 abstract class 类名{//抽象类 }public abstract void method(){} //抽象方法注: 有抽象方法的类是抽象类;抽象类不一定有抽象方法。 2.特点: 抽象类不能直接实例化,必须通过非抽象的子类来进行实例…...

    2024/5/5 9:24:38
  16. TRex,一个基于DPDK的数据包发生器,测试仪

    https://www.cnblogs.com/pandaroll/p/11617801.html...

    2024/4/24 13:54:36
  17. arcgis api for js 4.15 引入地图

    arcgis api for js 4.15 引入地图 1.开始 <!DOCTYPE html> <html> <head><meta charset="UTF-8"><link rel="stylesheet" href="http://js.arcgis.com/4.15/esri/themes/light/main.css"/><script src="h…...

    2024/5/5 12:00:39
  18. [JavaScript] 9.JS DOM模型

    DOM模型的全称是:DocumentObject Model, 即:文档对象模型,它定义了操作文档对象的接口。 WEB页面的HTML文档,document就是根节点,其它的子对象就是子结点。 DOM模型在AJAX开发中的作用。 在ajax中,DOM模型实际上是最核心的结构,是所有ajax开发的基础架构。如果没有DOM模…...

    2024/4/24 13:54:33
  19. Fecyo扩展Walletyo-2.0.1发布,商用免费授权,支持三级分销,用户积分,用户钱包

    Fecyo扩展Walletyo-2.0.1发布,支持三级分销,用户积分,用户钱包 更新信息参看:http://www.fecmall.com/topic/4254 本扩展一如既往的商用免费,欢迎各位使用 应用市场地址: http://addons.fecmall.com/46536133 文档地址:http://www.fecmall.com/doc/fecmall-guide/fecyo/…...

    2024/4/27 9:52:10
  20. 我曾经也想过烦恼

    没办法都是一步一步走过来的没有什么是一开始就会的,所以我还是踏踏实实的做自己想做的事情去吧...

    2024/4/24 13:54:32

最新文章

  1. 当管道运算符遇上无限可能:探索数据流的奇妙之旅

    文章目录 序言目的进程间通信的理解进程间通信的发展历史管道创建验证管道的大小管道的4种情况管道的5种特征 序言 通过该命令计算了在当前路径下一共有多少个文件夹的任务 进程虽然有独立性,但是进程并不孤僻,他们之间也会相互进行协作共同完成一件事 这个前提是他们之间的信…...

    2024/5/5 14:19:46
  2. 梯度消失和梯度爆炸的一些处理方法

    在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言&#xff0c;在此感激不尽。 权重和梯度的更新公式如下&#xff1a; w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...

    2024/3/20 10:50:27
  3. K8S容器空间不足问题分析和解决

    如上图&#xff0c;今天测试环境的K8S平台出现了一个问题&#xff0c;其中的一个容器报错&#xff1a;Free disk space below threshold. Available: 3223552 bytes (threshold: 10485760B)&#xff0c;意思服务器硬盘空间不够了。这个问题怎么产生的&#xff0c;又怎么解决的呢…...

    2024/5/4 14:52:56
  4. Java-代理模式

    1、什么是代理模式 代理&#xff1a;自己不做&#xff0c;找别人帮你做 代理模式&#xff1a;在一个原有功能的基础上添加新的功能 分类&#xff1a;静态代理和动态代理 2、静态代理 原有方式&#xff1a;就是将核心业务和服务方法都编写在一起 package com.AE.service;p…...

    2024/5/1 16:02:10
  5. 【外汇早评】美通胀数据走低,美元调整

    原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...

    2024/5/4 23:54:56
  6. 【原油贵金属周评】原油多头拥挤,价格调整

    原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...

    2024/5/4 23:54:56
  7. 【外汇周评】靓丽非农不及疲软通胀影响

    原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...

    2024/5/4 23:54:56
  8. 【原油贵金属早评】库存继续增加,油价收跌

    原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...

    2024/5/4 23:55:17
  9. 【外汇早评】日本央行会议纪要不改日元强势

    原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...

    2024/5/4 23:54:56
  10. 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响

    原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...

    2024/5/4 23:55:05
  11. 【外汇早评】美欲与伊朗重谈协议

    原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...

    2024/5/4 23:54:56
  12. 【原油贵金属早评】波动率飙升,市场情绪动荡

    原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...

    2024/5/4 23:55:16
  13. 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试

    原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...

    2024/5/4 23:54:56
  14. 【原油贵金属早评】市场情绪继续恶化,黄金上破

    原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...

    2024/5/4 18:20:48
  15. 【外汇早评】美伊僵持,风险情绪继续升温

    原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...

    2024/5/4 23:54:56
  16. 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势

    原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...

    2024/5/4 23:55:17
  17. 氧生福地 玩美北湖(上)——为时光守候两千年

    原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...

    2024/5/4 23:55:06
  18. 氧生福地 玩美北湖(中)——永春梯田里的美与鲜

    原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...

    2024/5/4 23:54:56
  19. 氧生福地 玩美北湖(下)——奔跑吧骚年!

    原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...

    2024/5/4 23:55:06
  20. 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!

    原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...

    2024/5/5 8:13:33
  21. 「发现」铁皮石斛仙草之神奇功效用于医用面膜

    原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...

    2024/5/4 23:55:16
  22. 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者

    原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...

    2024/5/4 23:54:58
  23. 广州械字号面膜生产厂家OEM/ODM4项须知!

    原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...

    2024/5/4 23:55:01
  24. 械字号医用眼膜缓解用眼过度到底有无作用?

    原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...

    2024/5/4 23:54:56
  25. 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...

    解析如下&#xff1a;1、长按电脑电源键直至关机&#xff0c;然后再按一次电源健重启电脑&#xff0c;按F8健进入安全模式2、安全模式下进入Windows系统桌面后&#xff0c;按住“winR”打开运行窗口&#xff0c;输入“services.msc”打开服务设置3、在服务界面&#xff0c;选中…...

    2022/11/19 21:17:18
  26. 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。

    %读入6幅图像&#xff08;每一幅图像的大小是564*564&#xff09; f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...

    2022/11/19 21:17:16
  27. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...

    win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面&#xff0c;在等待界面中我们需要等待操作结束才能关机&#xff0c;虽然这比较麻烦&#xff0c;但是对系统进行配置和升级…...

    2022/11/19 21:17:15
  28. 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...

    有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows&#xff0c;请勿关闭计算机”的提示&#xff0c;要过很久才能进入系统&#xff0c;有的用户甚至几个小时也无法进入&#xff0c;下面就教大家这个问题的解决方法。第一种方法&#xff1a;我们首先在左下角的“开始…...

    2022/11/19 21:17:14
  29. win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...

    置信有很多用户都跟小编一样遇到过这样的问题&#xff0c;电脑时发现开机屏幕显现“正在配置Windows Update&#xff0c;请勿关机”(如下图所示)&#xff0c;而且还需求等大约5分钟才干进入系统。这是怎样回事呢&#xff1f;一切都是正常操作的&#xff0c;为什么开时机呈现“正…...

    2022/11/19 21:17:13
  30. 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...

    Win7系统开机启动时总是出现“配置Windows请勿关机”的提示&#xff0c;没过几秒后电脑自动重启&#xff0c;每次开机都这样无法进入系统&#xff0c;此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一&#xff1a;开机按下F8&#xff0c;在出现的Windows高级启动选…...

    2022/11/19 21:17:12
  31. 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...

    有不少windows10系统用户反映说碰到这样一个情况&#xff0c;就是电脑提示正在准备windows请勿关闭计算机&#xff0c;碰到这样的问题该怎么解决呢&#xff0c;现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法&#xff1a;1、2、依次…...

    2022/11/19 21:17:11
  32. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...

    今天和大家分享一下win7系统重装了Win7旗舰版系统后&#xff0c;每次关机的时候桌面上都会显示一个“配置Windows Update的界面&#xff0c;提示请勿关闭计算机”&#xff0c;每次停留好几分钟才能正常关机&#xff0c;导致什么情况引起的呢&#xff1f;出现配置Windows Update…...

    2022/11/19 21:17:10
  33. 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...

    只能是等着&#xff0c;别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚&#xff0c;只能是考虑备份数据后重装系统了。解决来方案一&#xff1a;管理员运行cmd&#xff1a;net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...

    2022/11/19 21:17:09
  34. 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?

    原标题&#xff1a;电脑提示“配置Windows Update请勿关闭计算机”怎么办&#xff1f;win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢&#xff1f;一般的方…...

    2022/11/19 21:17:08
  35. 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...

    关机提示 windows7 正在配置windows 请勿关闭计算机 &#xff0c;然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;关机提示 windows7 正在配…...

    2022/11/19 21:17:05
  36. 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...

    钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...

    2022/11/19 21:17:05
  37. 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...

    前几天班里有位学生电脑(windows 7系统)出问题了&#xff0c;具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面&#xff0c;长时间没反应&#xff0c;无法进入系统。这个问题原来帮其他同学也解决过&#xff0c;网上搜了不少资料&#x…...

    2022/11/19 21:17:04
  38. 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...

    本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法&#xff0c;并在最后教给你1种保护系统安全的好方法&#xff0c;一起来看看&#xff01;电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中&#xff0c;添加了1个新功能在“磁…...

    2022/11/19 21:17:03
  39. 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...

    许多用户在长期不使用电脑的时候&#xff0c;开启电脑发现电脑显示&#xff1a;配置windows更新失败&#xff0c;正在还原更改&#xff0c;请勿关闭计算机。。.这要怎么办呢&#xff1f;下面小编就带着大家一起看看吧&#xff01;如果能够正常进入系统&#xff0c;建议您暂时移…...

    2022/11/19 21:17:02
  40. 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...

    配置windows update失败 还原更改 请勿关闭计算机&#xff0c;电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;配置windows update失败 还原更改 请勿关闭计算机&#x…...

    2022/11/19 21:17:01
  41. 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...

    不知道大家有没有遇到过这样的一个问题&#xff0c;就是我们的win7系统在关机的时候&#xff0c;总是喜欢显示“准备配置windows&#xff0c;请勿关机”这样的一个页面&#xff0c;没有什么大碍&#xff0c;但是如果一直等着的话就要两个小时甚至更久都关不了机&#xff0c;非常…...

    2022/11/19 21:17:00
  42. 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...

    当电脑出现正在准备配置windows请勿关闭计算机时&#xff0c;一般是您正对windows进行升级&#xff0c;但是这个要是长时间没有反应&#xff0c;我们不能再傻等下去了。可能是电脑出了别的问题了&#xff0c;来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...

    2022/11/19 21:16:59
  43. 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...

    我们使用电脑的过程中有时会遇到这种情况&#xff0c;当我们打开电脑之后&#xff0c;发现一直停留在一个界面&#xff1a;“配置Windows Update失败&#xff0c;还原更改请勿关闭计算机”&#xff0c;等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢&#xff0…...

    2022/11/19 21:16:58
  44. 如何在iPhone上关闭“请勿打扰”

    Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...

    2022/11/19 21:16:57