原文链接:http://xueshu.baidu.com/s?wd=paperuri%3A%2869c0ed187135ff3c1ee7da242d29c834%29&filter=sc_long_sign&tn=SE_xueshusource_2kduw22v&sc_vurl=http%3A%2F%2Farxiv.org%2Fpdf%2F1606.00305&ie=utf-8&sc_us=15963689512684278098

用多参数指数线性单位改进深层神经网络

摘要:激活功能对于最近的深层神经网络成功至关重要。在本文中,我们首先提出了一种新的激活函数,多参数指数线性单位(MPELU),旨在推广和统一整流和指数线性单位。作为广义形式,MPELU具有参数整流线性单元(PReLU)和指数线性单元(ELU)的优点,从而导致更好的分类性能和收敛性。此外,权重初始化对于训练非常深的网络非常重要。现有的方法为使用整流线性单位但不是指数线性单位的网络奠定了坚实的基础。本文补充了当前的理论,并将其扩展到更广泛的范围。具体来说,我们提出了一种初始化方式,使用指数线性单位训练非常深的网络。实验表明,提出的初始化不仅有助于训练过程,而且导致更好的泛化性能。最后,利用提出的激活函数和初始化,我们提出了一个深入的MPELU残留架构,可以在CIFAR-10/100数据集上实现最先进的性能。代码可从https://github.com/Coldmooon/Code-for-MPELU获得。

1 介绍

        在过去几年中,计算机视觉的景观已经从工程特征体系结构到端到端特征学习架构,深层神经网络,以及许多最先进的技术发展, 经典任务如对象检测[1],语义分割[2]和图像检索[3]。这样的革命性变化主要来自于数据集,高性能硬件,新的有效模型和正则化技术等几个关键要素。 在这项工作中,我们关注两个显着的元素,激活功能和相应的网络初始化。

       已知的激活功能之一是整流线性单元(ReLU)[4,5],对深层神经网络的发展产生了深远的影响。ReLU是一个分段线性函数,可将负输入保持为正输入,输出为零。由于这种形式,它可以减轻梯度消失的问题,允许对更深入的神经网络的监督训练。然而,它遇到一个潜在的缺点,一旦梯度达到零,单位永远不会激活。看到这一点,Maas等人[6]提出了Leaky ReLU(LReLU),其中激活函数的负部分被线性函数代替。他等[7]进一步将LReLU扩展到参数整流线性单元(PReLU),该单元可以学习整流器的参数,导致更高的分类精度,极小的过拟合风险。此外,Clevert等[8]提出了指数线性单元(ELU),导致更深入的学习和更好的泛化性能,而不是深层网络的整流单元系列。上述整流和指数线性单位通常由最近的深入学习架构[5,9,10,11]采用,以实现良好的性能。然而,两种类型的激活函数之间存在间隙空间。对于负的部分,ReLU或PReLU能够表示线性函数族,而不是非线性函数族,而ELU能够表示非线性函数族,而不是线性函数族。表示差距在某种程度上破坏了使用特定激活功能的那些架构的代表性能力。此外,当与批次归一化[12]一起使用时,ELU处于潜在的缺点。 Clevert等 [8]表明使用ELU的批次归一化可能会损害分类准确性,这也在我们的实验中得到验证。

       这项工作主要是由PReLU和ELU主导。 首先,我们提出一个新的多参数指数线性单元(MPELU),即ELU的泛化,以弥合差距。 特别地,将额外的可学习参数β引入到ELU的输入中以控制负部分的形状。 通过随机梯度下降(SGD)优化β ,MPELU能够自适应地在整流和指数线性单位之间切换。 其次,由PReLU推动,我们使ELU的超参数α可以进一步提高其代表能力并调整功能形状。 这种设计使MPELU比其前身ReLU,PReLU和ELU更灵活,可以被视为MPELU的特殊情况。因此,通过学习αβ,负部分的线性和非线性空间可以在单个激活功能模块中覆盖,而其特殊的现有情况则不具有此属性。

      将学习参数引入ELU可能带来额外的好处。这是受到批量归一化不能改善ELU网络但可以改善ReLU和PReLU网络的观察的灵感。为了看到这一点,MPELU可以被固有地分解成PReLU和可学习的ELU的组合:

      其中x是激活函数的输入,表示具有可学习参数的ELU [8]。将批处理标准化应用于输入:

        我们可以看到,批量归一化的输出在ELU之前流入PReLU,这不仅可以导致分类性能的提高,而且可以减轻与ELU合作的潜在问题。 方程式(2)表明,MPELU还能够同时分享PReLU和ELU的优点,例如,与ReLU和PReLU相比,ELU的优越学习行为,如[8]所述。 我们在CIFAR-10和ImageNet 2012上的实验结果表明,通过引入可学习的参数,MPELU网络提供比对应的其他激活函数网络更好的分类性能和收敛性。

        由于引入额外的参数,过度拟合可能是一个问题。为了解决这个问题,我们采用与PReLU相同的策略来减少过度投资风险。对于每个MPELU层,αβ被初始化为通道共享版本或通道版本。因此,整个网络的参数增量最多是通道总数的两倍,与权重数相比,该参数可以忽略不计。

尽管最近提出了许多激活功能,例如ELU [8],但很少有作品确定使用它们的网络的权重初始化。不正确的初始化往往阻碍了非常深的网络的学习[9]。Glorot等人[13]提出了一种初始化方案,但只考虑了线性激活功能。他等[7]导出了考虑整流器线性单位(例如,ReLU)但不允许指数线性单位(例如,ELU)的初始化方法。即使Clevert等[8]将其应用于使用ELU的网络,这缺乏理论分析。此外,这些作品都不适用于非凸激活功能。观察这一点,本文提出了权重初始化的策略,使得能够使用包括ELU和MPELU在内的指数线性单元训练网络,从而将当前理论扩展到更广泛的范围。特别地,由于MPELU是非凸的,所以提出的初始化也适用于非凸激活函数。

        这项工作的主要贡献是:

1.一种新的激活函数MPELU,涵盖整流和指数线性单元的解空间。

2.权重初始化技术,允许使用ELU和MPELU训练极深的网络。

3.使用MPELU的ResNet简单架构,在CIFAR [14]数据集上获得最先进的结果,具有与原始版本相当的时间/内存复杂性和参数[11,15]。

       本文的其余部分安排如下。Sec.2回顾相关工作。 在第3节中,我们提出了我们的激活函数和初始化方法。实验和分析在第4节给出,以显示其有效性。 利用所提出的方法,第5节提出了一个深入的MPELU残留架构,可以在CIFAR-10/100上提供最先进的性能。最后,第6节总结。为了保持文件的合理长度,我们的实验的实施细节在附录中给出。

2 相关工作

       本文主要关注激活函数和深层神经网络的权重初始化。 所以我们来回顾两个方面的相关工作。注意,训练非常深的网络也可以通过开发诸如引入[16,11]中的跳过连接的新架构来实现,但这超出了本文的范围。

激活函数

       即使激活功能是早期发明,直到最近才被正式定义[17]。激活函数允许深层神经网络学习复杂的非线性变换,这对建模的力量至关重要。 从特征的角度来看,激活函数的输出可以被用作高级语义表示(也可以通过子空间学习获得,例如[18]),它们比低级别的方差更加鲁棒,这有利于识别任务。

       最近的工作是整流线性单元(ReLU)[4,5],这是深层神经网络突破的关键之一。 ReLU保持正输入不变,为负输入输出零,因此可以避免梯度消失的问题,使得能够训练更深层次的监督神经网络,而S形的非线性不能。 LReLU [6]提出将负输入乘以斜率因子,旨在避免ReLU中的零梯度。根据[6],LReLU提供与ReLU相当的性能,并且对斜率的值敏感。他等[7]发现成本函数相对于斜率因子是可以区分的,因此提出通过SGD优化斜率。该参数整流线性单元称为PReLU。实验表明,PReLU可以提高卷积神经网络的性能,而且具有很小的过拟合风险。他们还证明,PReLU具有将FIM的对角线块逼近零的能力,这样可以实现比ReLU更快的收敛。上述激活函数都不能从凸函数的本质学习非凸函数。为了解决这个问题,Jin等[19]提出了一种S形整流线性激活单元(SReLU)来学习凸和非凸函数,这受到了Webner-Fechner定律和史蒂文生定律的启发。除了上述矫正线性单位,Clevert等 [8]提出了一种新颖的激活函数形式,指数线性单位(ELU)。ELU类似于负输入的S形,并且与正输入的ReLU具有相同的形式。已经证明,ELU能够使梯度更接近于单位自然梯度,这加快了学习速度并导致更高的性能。当与批处理标准化[12]一起使用时,ELU倾向于暴露出意外的降级问题。在这种情况下,ELU对泛化能力和分类性能的影响可以忽略不计。除了上述确定性激活函数之外,还有一个随机版本。最近,徐等人[20]提出了一种随机泄漏整流线性单元RReLU。RReLU也有负值,有助于避免零梯度。 不同的是,RReLU的斜率不是固定的或可学习的,而是随机的。 通过这一策略,RReLU能够在一定程度上降低过度服务风险。 但是,Xu等人只能验证RReLU在小数据集上,如CIFAR-10/100。 RReLU如何对大数据集(如ImageNet)执行的操作仍然需要进行探索。

初始化

       参数初始化对于深层网络和学习率较高的情况尤为重要。如果未正确初始化,可能很难通过SGD收敛。许多努力集中在这个问题上。Hinton等人[21]引入了一种学习算法,它利用层次无监督的预训练来初始化所有层。在此之前,没有合适的训练深度完全连接架构的算法。不久之后,Bengio等[22]研究了预训练策略,并进行了一系列实验验证。 Erhan等人[23]进一步进行了许多实验,以确认和澄清程序,表明它可以在更好的吸引盆地中初始化参数空间的起点,而不是随机选择起始参数。在深度学习的发展过程中,另一个重要的工作是ReLU[4],解决了梯度消失的问题。使用ReLU,深层网络能够从高斯分布中随机收敛。 Krizhevsky等人[5]将ReLU应用于随机初始化的监督卷积神经网络,并赢得了2012年ILSVRC挑战。因此,越来越多更深的网络被提出,导致计算机视觉的一系列改进。然而,Simonyan等人[9]表明,一旦层数达到某些值(例如11层),深层网络仍然面临优化问题。[13,10,7,16]中也提到了这种现象。 Glorot等人[13]提出了一种根据层的大小初始化权重的方法。这种策略在线性激活功能的假设下保持有效,这在许多情况下很好地工作,但是对于整流的线性单元(例如,ReLU和PReLU)不起作用。他等[7]将这种方法扩展到整流线性单元的情况,并提出了一种新的初始化策略,通常是MSRA填充,为训练非常深的网络提供了很大的帮助。然而,对于指数线性单位,目前没有适当的策略来初始化权重。观察这一点,我们将基于MPELU的零阶泰勒展开的指数线性单位(例如,ELU和MPELU)的深度网络的新的初始化概括为MSRA填充。

3、激活函数和权重初始化的提出

        本节首先介绍多参数指数线性单位(MPELU),然后使用指数线性单位导出网络的权重初始化。

3.1、多参数指数线性单元

       PRELU和ELU对其负面部分具有有限但互补的代表性力量。 这项工作提出了统一现有ReLU,LReLU,PReLU和ELU的一般激活功能。

图1:激活功能的图形描述。(a)激活功能的形状。PReLU中的参数a被初始化为0.25。ELU的超参数α为1.MPELU中的α和β分别用3和1初始化。(b)其他激活功能是MPELU的特殊情况。当α = 0,MPELU减少到ReLU。如果α = 25.6302且β= 0.01,则MPELU近似于PReLU;当α,β= 1时,MPELU变为ELU。

正向传播

       正式地,MPELU的定义是:

       这里,β被约束为大于零,i是对应于特征图 cth(c={1…M})中α和β的输入y的索引。按照PReLU,αcβc可以是频道方式(M =特征图的数量)或信道共享(M= 1)可学习参数,其控制MPELU饱和的值和MPELU饱和的值。 图1(a)示出了四种激活功能的形状。

       通过调整 ,MPELU可以在整流和指数线性单位之间切换。 具体来说,如果βc设定为小数,例如0.01,则MPELU的负部分近似于线性函数。 在这种情况下,MPELU成为参数整流线性单元(PReLU)。 另一方面,如果βc取大值,例如1.0,则MPELU的负部分是非线性函数,使MPELU回到指数线性单位。

       介绍αc有助于进一步控制MPELU的形式,如图1(b)所示。 如果αcβc设置为1,则MPELU退化为ELU。 在这种情况下减小βc可让MPELU进入LReLU。 最后,当αc= 0时,MPELU完全等同于ReLU。

       从上述分析可以看出,MPELU的灵活形式使其涵盖了其特殊情况的解决方案,从而赋予了更强大的代表性。 我们将显示ResNet[11,15]只通过调整激活功能的使用,即从ReLU到MPELU来获得显着的改进。

       MPELU的另一个好处是快速学习。 方程(2)表明MPELU可能潜在地共享PReLU和ELU的属性。 因此,作为指数线性单位,MPELU表现出与ELU相同的学习行为。 读者参考[8]了解更多细节。

反向传播

       由于MPELU处处可微,因此使用MPELU的深度网络可以端到端进行培训。 我们使用链式法则来推导出αcβc的更新公式:

       注意,分别是激活函数中参数αcβc的梯度。当计算整个层的损耗函数的梯度时,αcβc的梯度应为:

       这里∑为在αcβc相对应的所有位置上求和。 在本文中,我们对所有实验采用多通道。 通过这种策略,整个网络的参数增量最多是通道总数的两倍,与权重数相比,可以忽略不计。在第5章中,我们阐述了所提出的MPELUResNet体系结构的模型大小相当于(甚至低于)ReLU架构。

       对于实际运行时间,如果我们仔细优化代码,MPELU大致可以与PReLU相当。 这将在第4.2节中进行分析。

       αβ具有不同的初始值值对分类精度的影响很小但不可忽略。 我们建议使用α = 1或0.25,β = 1作为初始值,他们都是两者的基础学习率的5倍。 此外,我们强调,在αβ上使用权重衰减(l2正则化)是很重要的,它与整流线性单元的情况相反,如PReLU[7]和SReLU[19]。

3.2建议对MPELU网络进行权重初始化

       以前的工作[21,22,13,7]为深层神经网络的初始化奠定了坚实的基础。 本文补充了当前的理论,并将其扩展到更广泛的范围。

简要回顾MSRA filler

       MSRAfiller包含两种初始化,正向传播情况和反向传播情况。 他等人[7]证明了这两种情况能够适当地缩小反向信号。因此,只探究正向传播情况就足够了。

对于第l卷积层,输出通道中的像素表示为:

       其中yl是随机变量,wl和xl是随机向量,彼此独立,bl被初始化为零。 目标是探讨yl-1的方差与yl 的方差之间的关系。

        其中kl是内核大小,cl是输入通道的数量。 这里,wl和xl都是随机变量。方程(11)假设wl和xl中的元素分别是独立的和相同分布的。通常,深度网络的权重用零均值初始化,方程(11)变为:

       接下来,我们需要找到之间的关系。注意,在xl和yl之间存在激活功能,

       对于不同的激活函数f,我们可能导出不同的关系,从而导致不同的初始化方法。 具体来说,对于对称激活函数,Sigmoid非线性,Glorot等人[13]假设它们在初始化时是线性的,因此提出了Xavier方法。 对于整流线性单元,ReLU和PReLU,He等人[7]删除线性假设,并将Xavier方法扩展到MSRAfiller。 在下一节中,我们通过将MPELU的一阶泰勒展开为零并将结果剪切到其线性部分,进一步将MSRAfiller扩展为更一般的形式。

提议初始化

       本节主要依据[13,7]的推导。由于ELU是MPELU的一个特例,我们专注于MPELU。 从式(3)可以看出,很难得到之间的确切关系。相反,我们将其在零处泰勒展开。对于负面部分,MPELU可以表示为:

       然后,等式(14)的左侧近似于1阶的泰勒多项式。

       等式(15)仅对负部分引入线性近似。 我们把这个半线性假设为:

       其中,p(x)是概率密度函数。在[13,7]之后,如果wl-1具有零均值的对称分布的,则对于yl-1也是如此。然后得到,

       通过公式18和12,我们可以获得:

       通过这一点,很容易得出yl-1和yl之间的关系:

       在[13,7]之后,为了保持正向和反向信号的正确流动,我们预期等于,这导致:

        因此,对于使用MPELU的深层网络中的每一层,我们可以从高斯分布中初始化权重。

        其中i是层的索引。 方程(22)适用于使用整流或指数线性单位的深度网络。注意,当α=1β=1时,公式(22)成为ELU网络的初始化。 当α=0时,等式(22)对应于ReLU网络的初始化。 此外,当α=0.25β=1时,等式(22)可以用于初始化PReLU网络。 从这个角度来说,MSRAfiller是本文所提出初始化方法的一个特例。

与Xavier,MRSA和SUV进行比较。

       Xavier方法设计为对具有线性假设的对称激活函数进行初始化,MSRAfiller仅适用于整流线性单元(ReLU和PReLU),而所提出的方法解决了整流和指数线性单元的初始化。 最近,Mishkin等人[24]提出了数据驱动的LSUV初始化,从而避免了解决之间的关系,但方程(22)是ELU和MPELU的分析解决方案,因此运行速度比LSUV快。

表1:CIFAR-10上的分类测试错误率(%)。并且在MPELU中初始化为1或0.25,且它们由SGD更新而没有权重衰减。 如[16,11]中,每个网络的五次运行报告最佳(平均值±标准)结果

4 实验

       本节将探讨MPELU在许多架构上的使用。 在Sec.4.1中,我们用CIFAR-10在NIN[25]上的开始试验,显示了将可学习的参数引入到ELU中的好处。Sec.4.2进一步证实了在更深入的网络和更大的数据集如ImageNet2012具有这一优势。最后4.3节,使用ImageNet上的非常深的网络来验证提出的初始化,显示了在训练非常深的网络上ELU/ MPELU的能力。 在Sec.4.1和Sec.4.3中,我们还提供了收敛分析,表明MPELU,像ELU一样具有优于ReLU和PRELU的收敛性。

4.1 使用NIN在CIFAR-10上的实验

       本节在CIFAR-10数据集上进行了具有不同激活功能的NIN实验。 目的是调查将学习参数引入ELU的好处。

该体系结构具有9个卷积层,包括6个具有1×1内核大小和不具有完全连接(FC)层的卷积层,易于训练,综合评估可学习参数的有效性。实施细则见附录。

       为了公平比较,我们从头开始,使用ReLU,PReLU,ELU和MPELU进行网络训练。 表1显示,MPELU始终优于ELU(例如,9.06%vs.9.39%没有数据增加的测试错误率,7.30%与7.77%的有数据增加的测试错误率)。 这种对ELU的改进完全来自于αβ,验证了可学习参数的好处。

       在表1和图2中可以看到一些有趣的现象。首先,表1显示,MPELU(α=β= 0.25)表现为PReLU(使用增强数据时的平均测试误差为微不足道的0.03%)。其次,图2(a)(b)表明其学习曲线更接近于ELU,表明与整流线性单位相比,具有潜在的优越学习行为,如[8]所述。请注意,所有模型在这个小数据集上学到很快,在25k次迭代后达到相同的测试误差率(15%),这使得很难比较学习速度。为了处理这个问题,我们采用类似的评估标准[8],即达到15%测试错误率的迭代次数。图2(b)表明,MPELU更早开始减少误差(也是损失)在9k次迭代后达到15%的误差,而ReLU和PReLU分别需要25k和15k次迭代才能达到相同的错误率。上述更好的性能来自于PReLU和ELU的组合优势,如方程(1)所示。


图2。CIFAR-10收敛的比较。所有这些模型在这个小数据集上学得很快,所以我们采用类似于[8]的评估方法,根据该方法测量用于达到15%测试误差的迭代次数。(a)表示MPELU可以较早地减少损失。(b)表明MPELU在9k次迭代后达到15%的错误率,而ReLU和PReLU需要25k和15k的迭代才能达到相同的错误率

       同样值得注意的是,MPELU具有与PReLU相当的性能但具有有更多的参数。这不是由于过度拟合造成的,因为ELU执行比PReLU和MPELU差得多。其根本原因尚不清楚,将来会进行研究。尽管MPELU在这个较浅的架构中比PReLU的效率稍差一点,我们将展示MPELU在更深层次的体系结构中胜过PReLU。

4.2 在ImageNet上的实验

       本节将对MPELU在ImageNet2012分类任务中的效果进行评估。ImageNet2012包含128万个训练样本,50k个验证样本和100k个测试样本,他们分别属于1000类。 这使得我们能够利用更深层次的网络,而且过拟合风险很小。因此,我们建立了从模型E(来自[26])修改的15层网络。本节中评估的模型是对训练集进行训练,并在验证集上进行测试。

网络结构。

       基于模型E,我们再添加一个卷积层,在激活函数之前插入批量归一化[12],并删除掉dropout[27]层。以下[26,5,28],通过最大池化层将网络分为三个阶段。第一阶段只包含一个卷积核大小为7×7和64个滤波器的卷积层。第二阶段由四个卷积层组成,卷积核核大小为2×2,128个滤波器。我们相应地设置步幅和垫(pad),以保持36×36像素的特征图尺寸。第三阶段包括七个卷积层,卷积核大小为2×2,256个滤波器。在第三阶段,特征图尺寸减小到18×18像素。下一层是spp[28],其后是两个4096-dFC层,一个1000-dFC层和一个softmax。网络通过三种方法进行初始化,这三种方法是零均值和0.01标准差的高斯分布,MSRAfiller方法[7]和3.2节提出的初始化。偏置项通常用0进行初始化。MPELU中的αβ用不同的值进行初始化,并由SGD以重量衰减进行更新。其他实施细则见附录。

      为了公平比较,参与者在相同的初始值α下进行评估,Tab.2列出了结果。为了清楚起见,性能优于其他的结果以粗体显示,整体最佳结果标记为蓝色。

表2。扩充的ImageNet2012验证集的Top-1错误率(单视图测试)。比较是在α的初始值相同的情况下。在所有情况下,MPELU中的β初始化为1。MPELU中的αβ被SGD有或无权重衰减方式更新。MPELU一贯优于同行,获得最佳效果


高斯初始化

       与ELU相比,所有的MPELU层都用α=β = 1进行初始化。我们可以看到,MPELU网络在top-1错误率的性能优于ELU网络0.83%。如果使用权重衰减学习率,则其显著优于ELU网络2.32%。由于它们之间的唯一区别在于激活函数,因此,ELU的这种改进确实证明了可学习参数αβ的优点。

       为了进一步检查MPELU,我们还将其与PReLU进行了比较。 在这种情况下,α在MPELU中用0.25初始化。表2显示,MPELU网络实现top-1错误率为40.94%,差于PReLU网络提供的39.48%。然而,使用权重衰减后大大提高了MPELU网络的性能,提高了3.13%,将top-1错误率降至37.81%,优过PReLU网络1.72%。

其他初始化方法

       本文还使用其他初始化方法进行实验(见表2)。实验结果符合高斯初始化情况。MPELU超越所有对手。所有实验中的最佳top-1错误率是由MPELU网络实现的37.33%,显着低于PRELU和ELU实现的结果。有趣的是,应用本文所提出的初始化方法的MPELU网络效果始终优于利用高斯方法初始化的MPELU网络,表明我们所提出的初始化可以导致更好的泛化能力,这也在Sec.4.3中得到验证。

       请注意,MPELU仅对ReLU提供少许的改进,并且在所有三种情况下,使用权重衰减的MPELU结果趋向于减少top-1测试误差。但是,这并不是由于过度拟合引起的,而是由于添加更多的层(更多的参数)到15层网络导致测试错误降低,如第4.3节所示。一个可能的原因是使用权重衰减往往会推动αβ趋于零,导致更小规模的激活或稀疏表示,如ReLU,更有可能在高维空间中线性分离[29]。另一个解释可能来自稀疏特征选择[30]。

       为了提供经验解释,我们使用不同斜率的LReLU进行了四次额外的实验,并逐渐减少了激活的规模。所有五种模型(ReLU和LReLUA-D)具有相同数量的参数,从而消除过拟合的影响。其中唯一的区别是激活函数负部分的规模。表3显示了明显的趋势。 Top-1/top-5测试误差随着斜率减小而减小,这就解释了为什么使用权重衰减的MPELU会导致更好的结果,以及为什么ReLU比PReLU和ELU更好。然而,在第4.1节中没有观察到这种现象,这可能是由于小规模或稀疏性对于较浅的架构不太重要(ReLU在NIN上表现最差)。

表3。ImageNet验证集不同斜率之间的分类比较。 趋势是随着坡度的减小,表现也随之增加。

收敛比较

       由于批量归一化对网络收敛性有很大的影响,因此我们将激活函数的收敛性与Sec.4.3进行比较。

运行时间

       运行时间是指在训练期间执行具有输入数据批量大小为64的迭代的时间消耗。 基本上,MPELU的计算成本大于其对应的其他激活函数。但是,通过精心设计的实现(例如,更快的指数函数)可以很好地解决这个问题。在我们的Caffe[31]实现中,反向传播利用正向传播的输出,如等式(4)(6)(7)所示,这节省了大量的计算。此外,可以统一为每个传播循环计算参数和输入的梯度。因此,MPELU的实际运行时间可能只比PReLU略慢,如表4。

表4。基于Caffe实现的ReLU,PReLU,ELU和MPELU的运行时间(秒/迭代)。实验在NVIDIATitan X GPU上执行。下面的运行时间是600k次迭代的平均值。

4.3 初始化实验

       本部分对ImageNet2012进行实验。任务是检查所提出的初始化是否能够帮助使用指数线性单位的非常深的网络的收敛。为此,我们在Sec.4.2中向网络添加了额外的15个卷积层,从而形成一个30层网络,足以调查初始化的影响。请注意,网络类似于[7]中的30层ReLU网络,但与批处理大小,垫(pad)和功能图尺寸等方面有所不同。

       由于BN对深度网络的融合有很大的影响,所以考虑到这一点。根据文献[12],我们在使用BN时删除掉dropout层。最后,比较了四种方法:基础高斯初始化,所提出的初始化,BN +高斯初始化和BN +所提出的初始化。MPELU中的αβ用1进行初始化,SGD更新时没有权重衰减,其他设置与Sec.4.2相同。

表5。比较初始化。 报告了ImageNet2012验证集上的前1个测试错误(%)。具有高斯方法的30层ELU和MPELU网络完全停止学习。相反,所提出的方法使它们收敛,验证了等式(22)的有效性。 当使用BN时,所提出的方法仍然可以提高性能。值得注意的是,携带BN的30层MPELU网络达到了44.28%和42.96%,明显低于相对应的15层网络所实现的39.53%和38.42%,表明退化问题出现[11]。

表6。LSUV与我们的初始化方法通过15层网络做比较。 虽然LSUV的改善是轻微的,但我们的初始化方法仍然更优。

与高斯方法做比较

       表5显示,高斯初始化不能训练30层ELU/MPELU网络,而我们的方法可以帮助学习,这证明了方程(22)的有效性。此外,30层ELU / MPELU网络实现的37.08%/ 36.49%的top-1测试错误率明显低于所对应的15层实现的测试错误率(与表2作比较),这意味着,所提出的方法确实解决了对于非常深的网络进行不当初始化所引起的梯度递减,从而使他们从深度的增加中获益。当采用BN时,与高斯初始化相比,所提出的方法同样可以减少误差,显示出其对泛化能力的益处。此外,MPELU网络总是比ELU网络更好,获得了最佳效果,达到36.49%的top-1测试错误率,表明了引入可学习参数的好处。上述结果表明,虽然方程(22)源自方程(14)的一阶泰勒近似,但它在实践中确实工作得很好。

与LSUV做比较

       Mishkin等人[24] 使用ReLU在22层GoogLeNet [10]中验证了LSUV。为了在具有指数线性单位的较深的网络中检查LSUV,我们构建另一个52层ELU网络,并用LSUV初始化了对应的30层和52层ELU网络。 没有BN,LSUV使两个ELU网络仅在几次迭代中爆炸,而我们的方法可以使它们收敛。还通过Sec.4.2中所对应的15层网络进行了更多的实验,结果见表6。提出的初始化导致了top-1测试错误率的一致降低。另外,公式(22)是一个解析解,而LSUV是一种数据驱动方法,这意味着所提出的方法运行速度比LSUV快。

退化分析

       在表5中应该注意,虽然没有BN的30层网络获得了最好的结果,但是BN的30层网络比15层的网络要差得多。为了解释这一点,我们分析他们的学习行为。

图3。ImageNet上15/30层MPELU网络的学习曲线。(a)训练损失:所有30层网络趋于趋同。(b)top-1训练误差(%)。(c)top-1测试错误(%)。具有BN的30层网络具有比15层网络更高的训练/测试误差,提示退化问题的出现[11]。不知何故,令人惊讶的是,如果BN被移除,则问题被消除(见红色虚线)。

       首先,图3(a)显示了训练结束时所有30层网络的训练损失。正如我们所看到的那样,携带BN与未携带BN的网络的训练损失相当,表明他们都很好。 因此,精度的降低最不可能由消失的梯度引起。其次,图3(b)(c)显示了top-1训练/测试错误率。显然,具有BN的30层网络具有比对应的15层网络更高的训练/测试误差,表明如[11]所述的退化问题的出现。有趣的是,没有BN的30层网络没有这个问题,它可以享受增加深度的好处。请注意,这些网络的唯一区别是是否使用BN。因此,BN可能是造成退化问题的根本因素。

收敛的比较

       由于更深层次的网络难以训练,使用无BN的30层网络检验激活功能的收敛性就比较好。为此,从FAN IN,FAN OUT和AVERAGE模式的相应方法构建和初始化了四个这样的网络。实验结果表明,ReLU网络在所有三种模式下都不能收敛。 PRELU网络仅在FAN OUT模式下收敛。相反,ELU / MPELU网络能够以所有三种模式收敛。这些结果可能是由于ELU / MPELU的左饱和引入的输入的稳定性。为了验证这一点,计算统计(均值和方差)。表7显示了ReLU网络大致保留了输入的方差,这导致了较高层的非常大的激活和softmax的溢出,如[7]中所述。MPELU网络不受此影响,因为它具有左饱和至小负值,从而在正向传播期间逐渐减小方差。

表7。conv {1,7,14,20,27}的激活统计(平均值和方差)。 如[7]所述,ReLU网络可以大致保留其方差,导致输出量大,从而发散。 作为比较,MPELU网络可以逐渐降低幅度,从而避免溢出。

4.4 所提出初始化的残差分析

       公式(15)的左侧近似于一阶泰勒展开。本节估计残差项 ,

       为此,将考虑有无BN两种情况。

有BN

       BN通常在MPELU之前采用。因此,假设MPELU的输入y在初始化阶段具有零均值的高斯分布是合理的。根据概率论,超过99.73%的输入在[  ]的范围内,在这个范围内只有一半的输入贡献于残差。我们考虑采取的三个输入,其相应的残差是:

       公式(24),(25)和(26)表明,在初始化时,超过99.865%,97.725%和84.135%(y分别在[  ],[ ]和[ ]范围的概率)的输入所具有的残差分别小于。这里,y具有单位差异。如果αβ被初始化为1,超过84.135%的输入残差将小于0.5。此外,考虑一些残差小于的负输入。对于

       如果αβ均被初始化为1,我们将获得:

       这意味着将有大约55.57%的输入残差小于0.01。然而这残差是可以忽略的,但公式(22)在实践中仍然很好。该分析结论可以由Clevert等人进行侧面验证。他们观察到ELU与BN一起使用时表现不佳。ELU(α = 1)的行为更像是线性函数LReLU(α=1),对于整个训练周期,大多数残差很小。见表3,LReLU(D)。

无BN

       在这种情况下,很难分析估计残差。幸运的是,可以从卷积层的输出容易地计算残差。为此,采用了Sec.4.3中没有BN的30层MPELU网络。通过公式(27),我们考虑残差分别小于{0.01,0.5,2,2.5}或等价于{y| y> -0.1414},{y | y> -1},{y | y> -2}和{y | y> -3}的输入。

       为了简单起见,统计数据每7层计算一次。 如表8所示,较深的层对于公式(15)具有更好的近似。此外,一旦深度达到中值,例如conv14,大多数单位将具有小于0.5的残差。 另外,conv14的统计量非常接近标准正态分布,这表明它起到BN的作用,确保在初始化时梯度可以适当地传播到较低层。我们认为在初始化过程中残差是可以接受的。Sec.4.3已经证明了提出的初始化的有效性。

表8。剩余单位的直方图。残差范围分别为(0,0.01),(0,0.5),(0,2)和(0,4.5)。Conv {1,7,14,20,27}从27个卷积层中挑选出来。对于每个仓(每排),层越深,输入单位有效的百分比越高。一旦深度达到14,大多数单位的残差为0.5或更小。 有趣的是,中间层的输出conv14约为标准正态分布。

5 深度MPELU残差网络

       Sec.4显示了MPELU和所提出的初始化可以为普通网络带来好处。本节给出了一个深度MPELU ResNet,以表明所提出的方法特别适用于ResNet架构[11],并为CIFAR-10/100数据集提供了最先进的性能。

5.1 MPELU和批量归一化

       本节表明,MPELU与ELU相反,它可以与BN一起使用。Clevert等 [8]发现BN可以改善ReLU网络,但不能改善(甚至有害)ELU网络。观察这一点,Shah等 [32]提出了在使用ELU构建ResNet时去除大多数BN层。尽管删除BN可以降低它们之间的屏障,但是它倾向于减少所需的正则化属性,这可能导致对泛化能力的意想不到的负面影响。我们认为 适当的缓解问题的方法是引入可学习的参数αβ

       为了验证这个,我们只需在ResNet中用ELU和MPELU替换ReLU,保持任何其他设置不变。并且在MPELU(A)中用1进行初始化,并用SGD进行重量衰减更新。 表9显示了ELUResNet比原来的ResNet性能更差,潜在地证明BN不会改进ELUResNets。相反,MPELUResNets(A)一致地减少了不同深度的测试错误。

表9。CIFAR-10上的分类错误。 ReLU是用ELU或MPELU替代。报告超过5次运行的平均测试误差,除了我们对110层深度显示最佳(平均值±标准)。在MPELU ResNet(A)中,αβ用1进行初始化,并用SGD进行权重衰减更新。对于(B),加入后我们特别注意MPELU,分别用98和0.01初始化αβ

       对ELU的改进的解释说明或许可以从对MPELU中可学习参数的来源做出解释的等式(2)中寻找。方程(2)表明BN的输出直接流入其PReLU子模块,因此避免了直接流入ELU子模块。另一个可能的原因来自ResNet的原理,一个假设是优化残差映射比优化原始映射更容易。ResNet架构来源于身份映射最优假设的极端情况。与ReLU和ELU相比,MPELU涵盖更大的解决方案空间,这使得求解器有更多的机会近似身份映射,从而提高性能。为了验证这一点,我们特别注意加入后的MPELU层,其中αβ分别用98和0.01进行初始化。通过这样做,添加后的快捷连接和MPELU层结合到身份映射。遵循[11]中的哲学,如果身份映射是最佳的,那么通过快捷连接加上这样的MPELU层比加上ReLU或ELU层更容易学习身份映射,因为ReLU或ELU都不包括身份映射。结果在MPELUResNets(B)中给出。表9表明,MPELU ResNets(B)一贯优于同行,大大提高了可用参数引入的较大解决方案空间的优势。

5.2 网络架构

       他等[11,15]研究了深层残留网络激活函数的用法。ResNet和Pre-ResNet架构对ReLU进行了高度优化。 如5.1节所示,通过简单地用MPELU替换ReLU可以提高性能。我们预计将从调整后的部署中受益。因此,本节提出了残留架构的一个变体,MPELU ResNet包含两种类型的块,非瓶颈和瓶颈,如下所述。

MPELU非瓶颈残差块

       这个块(图4(b))是ResNet[11](图4(a))中原始的非瓶颈残差块的简化,Sec.5.1的实验结果表明ResNet使用MPELU 在寻找更好解决办法时比使用ReLU或ELU能获得更多的机会。然而,在添加之后引入非线性单元(例如,MPELU)仍将影响优化。例如,如果一个身份映射是最佳的,那么在极端情况下,除了将剩余功能推到零外,还需要求解器通过一堆非线性单元拟合身份映射。灵感来自[15,33],身份映射是直接构建的,如图4(b)所示,通过在添加后移除MPELU而不是由求解器拟合。

图4。各种残留块。 (a)[11]中的非瓶颈块,(b)MPELU非瓶颈块,(c)[15]中的完全预激活瓶颈块,(d)MPELU完全预激活瓶颈块

MPELU瓶颈残差块

       通过用MPELU代替ReLU(图4(c))可以简单地获得一个纯净的MPELU瓶颈块(图4(d))。这种拉动预激活结构对于ReLU是高度优化的。

       本节介绍了针对MPELU优化的无预激活瓶颈块(见图5(d))。由于预激活部分被去除,所以该块的复杂度和参数数量可以大大降低。因此,整个网络的最终复杂性和参数数量与原来的相当。此外,我们在第一个卷积层之后采用BN(BN1表示)加上MPELU,以及在整个网络最后一个卷积元素后加上BN(由BNend表示)再加上一个MPELU。BN1和BNend对于无预激活瓶颈块是重要的。我们将以经验证明这一点。除了这种结构之外,还研究了其他替代方案(见图5)。

图5。残余功能的替代方案 (a)以BN结束的MPELU预激活块,(b)仅MPELU预激活块,(c)以BN结束的无预激活,(d)无预激活瓶颈,(e)无预激活没有BN。

5.3 在CIFAR上的结果

       本节首先评估所提出的MPELUResNet的变体和替代方案,然后将其与最先进的架构进行比较。实施细则见附录。

分类结果

       对于较浅的架构,考虑MPELUResNets(非瓶)。表10显示,MPELU ResNets(非瓶子)实现了一致的改进,参数增加可以忽略不计。例如,110层MPELU ResNet将平均测试错误率降低到5.47%,比原来的ResNet-110低1.14%。请注意,这种改进仅通过简单的策略获得,即改变激活功能的使用,从MPELU中获益。

       当网络越来越深(164层)时,我们将重点放在瓶颈架构上,以减少时间/内存复杂度,如[11]所述。图4(d)显示的是MPELU完全预激活瓶颈结构,从表11中可以看出该结构平均测试错误率从原始Pre-ResNet(如图4(c))的5.46%到5.32%的边际下降。这通过简单地用MPELU替换ReLU来完成。对于以BN结束的MPELU预激活块(图5(a)),网络未能在初始学习率0.1下收敛。根据文章[11],我们用一个时期的学习率0.01预热训练,然后切换回0.1。有了这个政策,网络能够收敛,但是此解决方案比完整的预先激活更糟糕。基于此观察,我们保留只MPELU预激活部分,并在去除BN(参见图5(b))。有趣的是,网络可以在不加热的情况下收敛,导致平均测试误差为5.49%,这也比完全预先激活架构的要差。通过这些结果,在本文的其余部分中没有考虑唯一利用MPELU预激活体系结构(包括是否以BN结束)。

表10。CIFAR-10上非瓶颈架构的测试错误率(%)。我们尝试不同的学习率和权重衰减系数,并选择获得最佳性能的产品。我们重新培训了200个时期的原始ResNet ,并将结果用*标记。

表11。瓶颈架构在CIFAR-10上的测试错误率(%)。αβ并分别用0.25和1初始化,并由权重衰减SGD更新。

       我们专注于MPELUnopre架构(图5(d))及其变体。令人惊讶的是,如表11所示,简单地删除预激活会带来较低的测试错误率,具有较少的参数和复杂性,这表明深层残留架构有潜力享受MPELU的好处。此外,还通过向MPELU 无预激活架构添加更多的BN层和移除BN层来检查性能。对于前一种情况(添加BN)(图5(c)),如表11所示,在架构末端加入另外一个BN使网络在几步之内发散。看到这一点,我们尝试了暖身(学习率先0.01后0.1),发现网络融合得很好。将这种现象与图5(a)和ResNet-110[11]的结果观察结合起来,我们怀疑加入的BN会对梯度信号产生负面影响,所以我们必须降低初始学习率来预热训练。对于后一种情况(减少BN),从残余函数中去除所有的BN(参见图5(e))也导致发散。再有,当BN1和BNend从MPELU 无预激活中删除时,发生相同的结果。然而,如果保持BNend,网络仍然收敛但执行结果稍差(5.29%,平均测试误差为5.04%)。这些结果表明BN1和BNend对于无预激活架构很重要。

       考虑到时间/内存复杂性和模型大小,将MPELU无预选作为本文提出的瓶颈架构,并与其他最先进的方法进行比较。

与先进方法的比较

       为了与最先进的方法进行比较,我们采用了文章[34]中(详见附录)的积极的培训策略,用符号†表示。

       测试错误率在表12中给出。很容易看出,通过培训策略†,特别是CIFAR-100数据集(21.88%对23.29%),MPELU 无预激活 ResNet-164(α= 0.25)的平均测试误差大大降低。这可能是因为CIFAR-100是CIFAR-10的挑战者。训练具有较大学习率的更多时期将有助于该模型学习潜在的难以捉摸的概念。有趣的是,改变MPELU中α的初始值为1,可以进一步提高CIFAR-100(21.78%)的测试误差,但不能提高CIFAR-10(4.67%)的测试误差。为了比较,我们还对1001层MPELU无预激活 ResNet进行了培训。表12显示,即使引入了更多的参数,MPELU ResNet架构也不会受到过度拟合,并且仍然享受增加的参数和深度的性能增益。提出的MPELU 无预激活 ResNet-1001的最佳结果是CIFAR-10上的3.57%测试误差和CIFAR-100上的18.81%的测试误差,远远低于原始Pre-ResNet [15](预激活残差网络)。

表12。与CIFAR-10/100上最先进的方法进行比较。MPELU初始化为 α= 0.25或1和β =1,由权重衰减SGD更新。†表示超参数设置如下[34](见附录)。我们的结果是基于5次运行中最好的平均值±标准差。

6 结论

       激活功能是深层神经网络的关键组成部分。最近有人提出了一些关于这个问题的工作。本文将现有工作推广到新的多参数指数线性单位(MPELU)。通过引入可学习的参数,MPELU可以成为整流或指数线性单位,并结合其优点。通过不同深度的网络(从9层NIN [25]到1001层ResNet [11])进行综合实验,以检查MPELU的性能。实验结果表明,MPELU可以为深层网络的分类性能和融合带来好处。此外,MPELU与ELU不同,它可以使用批量归一化。权重初始化也是深层神经网络的重要因素。本文提出了可以使用在指数线性单位网络的初始化,这补充了该领域的当前理论。据我们所知,这是为使用指数线性单位的网络提供分析解决方案的第一种方法。实验结果表明,提出的初始化不仅使得能够使用指数线性单位训练非常深的网络,而且导致更好的泛化性能。此外,这些实验表明,批量归一化可能是导致降解问题的因素之一。最后,本文研究了MPELU与ResNet的用法,并提出了一个深度的MPELU剩余网络,在CIFAR-10/100数据集上获得了最先进的精度。

致谢

        我们要感谢NVIDIA公司捐赠Titan X GPU并支持这项研究。这项工作得到了中国国家自然科学基金(资助项目编号NSFC-61402046,NSFC-61471067,NSFC 81671651),北京邮电大学基金(2013XD-04,2015XD-02),国家重大科技专项基金(拨款号:2014ZX03002002-004),和北京市安全生产监督重点实验室基金的支持。

附录:实施细则

NIN在CIFAR-10(4.1节)

       在培训期间,所有模型都使用SGD进行培训,批量大小为128,重复120k次(约307个时期)。学习率初始设置为0.1,然后在100k次迭代后降低10倍。权重衰减和动量分别为0.0001和0.9。权重由具有0.01标准偏差的零均值高斯分布初始化。MPELU中的αβ被初始化为0.25和1,并且由SGD更新而没有重量衰减。在测试期间,我们采用单视图测试。以下[40,25,16],数据采用全局对比度归一化和ZCA增白进行预处理。当使用数据增加时,从预处理的图像中随机裁剪28×28个补丁,然后以50%的概率翻转。

ImageNet上的15层网络(第4.2节)

这些模型由SGD训练,小批量64次,750k次迭代(37.5个时期)。学习率最初为0.01,然后在100k和600k次迭代中除以10。重量衰减和动量分别为0.0005和0.9。所有图像都缩放到256×256像素。在训练期间,从原始图像或其翻转版本随机采样224×224子图像。没有使用进一步的数据增加。在测试期间,我们采用单视图测试。

MPELU残差网络在CIFAR-10/100实验(第5.3节)

实现细节主要遵循[11]和fb.resnet.torch [33]。 具体来说,这些模型由SGD训练,批量大小为128,分为200个纪元(不加热)。 学习率初始设置为0.1,然后在81和122个时期减少10倍。 重量衰减设定为0.0001,动量为0.9。 MPELU初始化为α= 0.25或1和β=1,由SGD更新,重量衰减。 所有的MPELU模型都由所提出的方法(第3.2节)进行初始化。 为了比较,我们遵循由fb.resnet.torch [33]实现的标准数据扩充:每个图像用4个像素填充,然后从它或其水平翻转版本随机裁剪一个32×32的补丁。 当采用[34]的积极的训练策略†时,模型训练了300个时期。 两台Titan X GPU(每台32台)的批量大小为64。 学习率最初为0.1,然后在150和225个时期下降10倍。
查看全文
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

相关文章

  1. 线性代数学习笔记(三)

    A的列空间:column space设Ax=b,以column picture视角看,每一个x,都是A的列的一种线性组合,每种组合均构成一个b。取遍x 得到的所有的b 构成了A的column spaceA的零空间:nullspace设Ax=0,所有的解x 构成的空间,就是A的nullspace. 如果A可逆,那么A的nullspace只包含零向…...

    2024/5/3 2:08:35
  2. 记录我自己对hibernate的一、二级缓存的理解

    Hibernate的一级缓存和二级缓存 记录自己对一级缓存和二级缓存的理解 Hibernate一级缓存一级缓存,又叫做session缓存,是属于单个session的。它是内置的,默认开启的; 主要目的是减少对数据库的访问,从而提高hibernate的执行效率,毕竟hibernate访问数据库这方面较慢(当执行…...

    2024/4/17 8:37:26
  3. 机器学习之数学基础-线性代数python案例(一)

    线性代作为数学的一个分支,主要研究向量空间以及在向量空间之间的线性变换。 机器学习在很大程度上依赖于线性代数,因此需要了解向量和矩阵,以及它们的特性和运作机制 向量 定义 向量是由大小和方向定义的量。例如,火箭的速度是一个三维向量:它的大小是火箭的速度,它的方…...

    2024/4/17 8:37:50
  4. 激活函数的选择

    那么你应该使用哪个激活函数来处理深层神经网络的隐藏层? 虽然你的里程会有所不同,一般 ELU > leaky ReLU(及其变体)> ReLU > tanh > sigmoid。 如果您关心运行时性能,那么您可能喜欢 leaky ReLU超过ELU。 如果你不想调整另一个超参数,你可以使用前面提到的默…...

    2024/4/19 18:16:39
  5. F28335基础例程(全) CCS5.5和CCS6.0,基于手把手教学视频

    F28335的基础学习例程,今天冲C币后一顿下载啊,都分享出来嘿嘿,基本的LED,EPWM和定时器均有,还有Header和common文件,已经用上了,非常实用。 希望大家保存完资源留个言,让我知道你们在。链接:https://pan.baidu.com/s/1sWR6U1TkcSD0bjpfvndwkg 提取码:969e 有不会使用…...

    2024/4/17 8:38:26
  6. Hibernate和Mybatis一级缓存、二级缓存

    Hibernate简介Hibernate是一个持久层框架,经常访问物理数据库。为了降低应用程序对物理数据源访问的频次,从而提高应用程序的运行性能。缓存内的数据是对物理数据源中的数据的复制,应用程序在运行时从缓存读写数据,在特定的时刻或事件会同步缓存和物理数据源的数据。一级缓…...

    2024/4/23 18:17:33
  7. .NET开源工作流CCFlow-快速入门

    关键字驰骋工作流引擎 流程快速开发平台 workflow ccflow jflow .net开源工作流接触过activiti工作流的朋友也许会觉得,设计一个工作流需要写很多代码,还要事先设计好一个表单,这真的不是一时半会能做出来的。下面我用ccflow来设计一个流程,五分钟就可以完成。第一步,需要…...

    2024/4/19 10:00:32
  8. DSP28335 时钟、外设及寄存器配置

    1.时钟产生过程 外部时钟或者外部晶振给F28335提供时钟源OSCCLK,使能F28335片上PLL电路,PLL电路对时钟源信号进行倍频,产生时钟CLKIN,CLKIN通过CPU产生时钟SYSCLKOUT,SYSCLKOUT经过分频可以产生低速时钟LOSPCLK和高速时钟HISPCLK,最后OSCCLK、CLKIN、SYSCLKOUT、LOSPCLK和…...

    2024/4/17 8:40:32
  9. C/C++科学计算库(矩阵,线性代数)

    Matlab是矩阵运算/线性代数最常用的库。不过由于licence问题,一般更多用于做实验什么的,另外,虽然Matlab可以方便的用C写扩展,但是Matlab自己的函数却很难被其他语言调用。 Octave是Matlab一个不错的开源替代,不过Octave也有一些问题,1,Octave并没有实现Matlab太多功能 …...

    2024/4/20 15:37:06
  10. 如何使用U-Net-train进行语义分段,并在Keras中测试您的自定义数据

    什么是语义分割?语义分割是逐像素分类问题陈述。如果到目前为止,您已将图像中的一组像素分类为Cat,Dog,Zebra,Humans等,那么现在是时候学习如何为图像中的每个像素分配类。这可以通过语义分割,Mask-R-CNN等许多算法实现。在本文中,我们将学习使用深度学习模型实现语义分…...

    2024/4/17 8:40:02
  11. 我的营销心得(史玉柱)

    你了解史玉柱吗,知道史玉柱是怎么发展起来的吗,这本书就是一个很好的途径。它介绍了史玉柱创业时各个阶段的经历和思考,全书都是通俗易懂的硬道理,朴实无华,让你对营销本质有更深的认识,屌丝们赶紧学学吧,人家都这么大方的教你还不学! 第一章 脑白金如何找到自己的消费…...

    2024/4/17 8:40:38
  12. Hibernate二级缓存适用场景

    Hibernate二级缓存适用场景1.什么样的数据适合存放到第二级缓存中? 1) 很少被后台修改的数据2) 不是很重要的数据,允许出现偶尔并发的数据 3) 访问量大,不会被并发访问的数据,如个人资料 4) 参考数据,指的是供应用参考的常量数据,它的实例数目有限,它的实例会被许多其他类…...

    2024/5/2 23:48:44
  13. 求2019汤家凤线代笔记pdf版

    @TOC求各位大佬 欢迎使用Markdown编辑器 你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本语法知识。 新的改变 我们对Markdown编辑器进行了一些功能拓展与语法支持,除了标准的Mar…...

    2024/4/17 8:39:56
  14. 零基础学习嵌入式入门以及项目实战开发【手把手教+国内独家+原创】

    零基础学习嵌入式入门以及项目实战开发【手把手教+国内独家+原创】独家拥有,绝对经典 创 科 之 龙嵌入式开发经典系列教程【第一期】 主讲人:aiku技术支持QQ:1653687969致力于打造最新!最快!最给力!最强悍!嵌入式入门渠道! 我们的口号是…...

    2024/4/20 4:57:15
  15. 从ReLU到GELU,一文概览神经网络的激活函数

    选自mlfromscratch作者:Casper Hansen机器之心编译在计算每一层的激活值时,我们要用到激活函数,之后才能确定这些激活值究竟是多少。根据每一层前面的激活、权重和偏置,我们要为下一层的每个激活计算一个值。但在将该值发送给下一层之前,我们要使用一个激活函数对这个输出…...

    2024/4/17 8:39:56
  16. 开发者必读:计算机科学中的线性代数(附论文)

    来源:机器之心作者:Petros Drineas、Michael W. Mahoney本文共3994字,建议阅读6分钟。本文为你分享一篇来自普渡大学与UC Berkeley两位教授的概述论文中的线性代数知识。矩阵计算在计算机科学中占有举足轻重的地位,是每个开发者都需要掌握的数学知识。近日,来自普渡大学的…...

    2024/5/3 0:32:02
  17. 深度模型之激活函数以及Initializer

    文章目录1.为什么要激活函数2.常见激活函数2.1.sigmoid激活函数2.2.tanh激活函数2.3.Relu激活函数2.4.PRelu2.4.1.RRelu2.4.2.Leaky ReLU2.5.elu激活函数2.6.Gelu激活函数2.7.Maxout 激活函数 1.为什么要激活函数 举个例子,首先我们有这个需求,就是二分类问题,如我要将下面的…...

    2024/4/17 8:39:56
  18. JS中的多种继承方式

    JS中的多种继承方式JS本身是基于面向对象开发的编程语言,所以学习JS的时候基本上就是学习它有哪些类,学习这些类的实例,实例可以调用类原型提供的方法,实例还有自己私有的属性和方法, 面向对象想编程中有一个非常重要的知识点—类:封装、继承、多态封装 :类也是一个函数…...

    2024/4/20 14:15:45
  19. spring中配置hibernate二级缓存

    报错 : org.hibernate.cache.NoCachingEnabledException:Second-level cache is not enabled for usage 参考:http://www.cnblogs.com/hoojo/archive/2012/07/12/2587941.html 1.打开二级缓存的配置——applicationContext.xml <bean id="sessionFactory" c…...

    2024/4/17 8:38:44
  20. Ti的C28x系列的DSP(28069)(28377D)使用经验,CAN通讯经验(1)

    笔者在项目中同时使用过两种DSP,一种是28069,另一种是28377D,这两个DSP主要是进行CAN通讯功能,完成整个系统的非实时通讯功能。今天笔者主要想讨论的是28069与28377D的CAN外设,这两个DSP虽然都是Ti的,但CAN外设的架构却不相同,寄存器设置也不相同。打开28069参考手册,你…...

    2024/4/17 8:40:26

最新文章

  1. Opensbi初始化分析:设备初始化-warmboot

    Opensbi初始化分析:设备初始化-warmboot 设备初始化sbi_init函数init_warmboot函数coolboot & warmbootwait_for_coldboot函数domain && scratch(coldboot所特有)console初始化及print相关工作(coldboot所特有)系统调用的相关初始化(coldboot所特有)综上设备…...

    2024/5/3 2:50:48
  2. 梯度消失和梯度爆炸的一些处理方法

    在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言&#xff0c;在此感激不尽。 权重和梯度的更新公式如下&#xff1a; w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...

    2024/3/20 10:50:27
  3. 【APUE】网络socket编程温度采集智能存储与上报项目技术------多路复用

    作者简介&#xff1a; 一个平凡而乐于分享的小比特&#xff0c;中南民族大学通信工程专业研究生在读&#xff0c;研究方向无线联邦学习 擅长领域&#xff1a;驱动开发&#xff0c;嵌入式软件开发&#xff0c;BSP开发 作者主页&#xff1a;一个平凡而乐于分享的小比特的个人主页…...

    2024/5/1 13:52:04
  4. #QT项目实战(天气预报)

    1.IDE&#xff1a;QTCreator 2.实验&#xff1a; 3.记录&#xff1a; &#xff08;1&#xff09;调用API的Url a.调用API获取IP whois.pconline.com.cn/ipJson.jsp?iphttp://whois.pconline.com.cn/ipJson.jsp?ip if(window.IPCallBack) {IPCallBack({"ip":&quo…...

    2024/5/2 23:16:18
  5. 【外汇早评】美通胀数据走低,美元调整

    原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...

    2024/5/1 17:30:59
  6. 【原油贵金属周评】原油多头拥挤,价格调整

    原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...

    2024/5/2 16:16:39
  7. 【外汇周评】靓丽非农不及疲软通胀影响

    原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...

    2024/4/29 2:29:43
  8. 【原油贵金属早评】库存继续增加,油价收跌

    原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...

    2024/5/2 9:28:15
  9. 【外汇早评】日本央行会议纪要不改日元强势

    原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...

    2024/4/27 17:58:04
  10. 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响

    原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...

    2024/4/27 14:22:49
  11. 【外汇早评】美欲与伊朗重谈协议

    原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...

    2024/4/28 1:28:33
  12. 【原油贵金属早评】波动率飙升,市场情绪动荡

    原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...

    2024/4/30 9:43:09
  13. 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试

    原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...

    2024/4/27 17:59:30
  14. 【原油贵金属早评】市场情绪继续恶化,黄金上破

    原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...

    2024/5/2 15:04:34
  15. 【外汇早评】美伊僵持,风险情绪继续升温

    原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...

    2024/4/28 1:34:08
  16. 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势

    原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...

    2024/4/26 19:03:37
  17. 氧生福地 玩美北湖(上)——为时光守候两千年

    原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...

    2024/4/29 20:46:55
  18. 氧生福地 玩美北湖(中)——永春梯田里的美与鲜

    原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...

    2024/4/30 22:21:04
  19. 氧生福地 玩美北湖(下)——奔跑吧骚年!

    原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...

    2024/5/1 4:32:01
  20. 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!

    原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...

    2024/4/27 23:24:42
  21. 「发现」铁皮石斛仙草之神奇功效用于医用面膜

    原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...

    2024/4/28 5:48:52
  22. 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者

    原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...

    2024/4/30 9:42:22
  23. 广州械字号面膜生产厂家OEM/ODM4项须知!

    原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...

    2024/5/2 9:07:46
  24. 械字号医用眼膜缓解用眼过度到底有无作用?

    原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...

    2024/4/30 9:42:49
  25. 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...

    解析如下&#xff1a;1、长按电脑电源键直至关机&#xff0c;然后再按一次电源健重启电脑&#xff0c;按F8健进入安全模式2、安全模式下进入Windows系统桌面后&#xff0c;按住“winR”打开运行窗口&#xff0c;输入“services.msc”打开服务设置3、在服务界面&#xff0c;选中…...

    2022/11/19 21:17:18
  26. 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。

    %读入6幅图像&#xff08;每一幅图像的大小是564*564&#xff09; f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...

    2022/11/19 21:17:16
  27. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...

    win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面&#xff0c;在等待界面中我们需要等待操作结束才能关机&#xff0c;虽然这比较麻烦&#xff0c;但是对系统进行配置和升级…...

    2022/11/19 21:17:15
  28. 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...

    有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows&#xff0c;请勿关闭计算机”的提示&#xff0c;要过很久才能进入系统&#xff0c;有的用户甚至几个小时也无法进入&#xff0c;下面就教大家这个问题的解决方法。第一种方法&#xff1a;我们首先在左下角的“开始…...

    2022/11/19 21:17:14
  29. win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...

    置信有很多用户都跟小编一样遇到过这样的问题&#xff0c;电脑时发现开机屏幕显现“正在配置Windows Update&#xff0c;请勿关机”(如下图所示)&#xff0c;而且还需求等大约5分钟才干进入系统。这是怎样回事呢&#xff1f;一切都是正常操作的&#xff0c;为什么开时机呈现“正…...

    2022/11/19 21:17:13
  30. 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...

    Win7系统开机启动时总是出现“配置Windows请勿关机”的提示&#xff0c;没过几秒后电脑自动重启&#xff0c;每次开机都这样无法进入系统&#xff0c;此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一&#xff1a;开机按下F8&#xff0c;在出现的Windows高级启动选…...

    2022/11/19 21:17:12
  31. 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...

    有不少windows10系统用户反映说碰到这样一个情况&#xff0c;就是电脑提示正在准备windows请勿关闭计算机&#xff0c;碰到这样的问题该怎么解决呢&#xff0c;现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法&#xff1a;1、2、依次…...

    2022/11/19 21:17:11
  32. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...

    今天和大家分享一下win7系统重装了Win7旗舰版系统后&#xff0c;每次关机的时候桌面上都会显示一个“配置Windows Update的界面&#xff0c;提示请勿关闭计算机”&#xff0c;每次停留好几分钟才能正常关机&#xff0c;导致什么情况引起的呢&#xff1f;出现配置Windows Update…...

    2022/11/19 21:17:10
  33. 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...

    只能是等着&#xff0c;别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚&#xff0c;只能是考虑备份数据后重装系统了。解决来方案一&#xff1a;管理员运行cmd&#xff1a;net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...

    2022/11/19 21:17:09
  34. 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?

    原标题&#xff1a;电脑提示“配置Windows Update请勿关闭计算机”怎么办&#xff1f;win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢&#xff1f;一般的方…...

    2022/11/19 21:17:08
  35. 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...

    关机提示 windows7 正在配置windows 请勿关闭计算机 &#xff0c;然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;关机提示 windows7 正在配…...

    2022/11/19 21:17:05
  36. 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...

    钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...

    2022/11/19 21:17:05
  37. 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...

    前几天班里有位学生电脑(windows 7系统)出问题了&#xff0c;具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面&#xff0c;长时间没反应&#xff0c;无法进入系统。这个问题原来帮其他同学也解决过&#xff0c;网上搜了不少资料&#x…...

    2022/11/19 21:17:04
  38. 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...

    本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法&#xff0c;并在最后教给你1种保护系统安全的好方法&#xff0c;一起来看看&#xff01;电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中&#xff0c;添加了1个新功能在“磁…...

    2022/11/19 21:17:03
  39. 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...

    许多用户在长期不使用电脑的时候&#xff0c;开启电脑发现电脑显示&#xff1a;配置windows更新失败&#xff0c;正在还原更改&#xff0c;请勿关闭计算机。。.这要怎么办呢&#xff1f;下面小编就带着大家一起看看吧&#xff01;如果能够正常进入系统&#xff0c;建议您暂时移…...

    2022/11/19 21:17:02
  40. 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...

    配置windows update失败 还原更改 请勿关闭计算机&#xff0c;电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;配置windows update失败 还原更改 请勿关闭计算机&#x…...

    2022/11/19 21:17:01
  41. 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...

    不知道大家有没有遇到过这样的一个问题&#xff0c;就是我们的win7系统在关机的时候&#xff0c;总是喜欢显示“准备配置windows&#xff0c;请勿关机”这样的一个页面&#xff0c;没有什么大碍&#xff0c;但是如果一直等着的话就要两个小时甚至更久都关不了机&#xff0c;非常…...

    2022/11/19 21:17:00
  42. 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...

    当电脑出现正在准备配置windows请勿关闭计算机时&#xff0c;一般是您正对windows进行升级&#xff0c;但是这个要是长时间没有反应&#xff0c;我们不能再傻等下去了。可能是电脑出了别的问题了&#xff0c;来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...

    2022/11/19 21:16:59
  43. 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...

    我们使用电脑的过程中有时会遇到这种情况&#xff0c;当我们打开电脑之后&#xff0c;发现一直停留在一个界面&#xff1a;“配置Windows Update失败&#xff0c;还原更改请勿关闭计算机”&#xff0c;等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢&#xff0…...

    2022/11/19 21:16:58
  44. 如何在iPhone上关闭“请勿打扰”

    Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...

    2022/11/19 21:16:57