《Searching for MobileNetV3》论文笔记
Searching for MobileNetV3
Abstract
1. Introduction
2. Related Work
3. Efficient Mobile Building Blocks
移动设备模型靠高效的构建块搭建。MobileNetV1引入了深度可分离卷积来替代传统卷积层。深度可分离卷积将空间滤波与特征生成机制分离,有效地分解了传统卷积。深度可分离卷积有两个独立的层结构:用于空间滤波的轻量级深度卷积层及用于特征生成的1×11\times 11×1点卷积。
MobileNetV2引入了线性瓶颈及反向残差结构实现更高效的层结构。结构如下图所示,由1×11\times 11×1扩展卷积层、深度卷积层及1×11\times 11×1投影卷积层组成。当且仅当输入和输出具有相同通道数的时候,它们之间才会使用残差连接。
MnasNet基于MobileNetV2模型,在瓶颈结构中引入了基于压缩及激发的轻量级注意力模块。与SENet不同的是, MnasNet将压缩及激发模块放置于深度卷积层之后。
对于MobileNetV3,我们使用了上述三种结构相结合构建块来实现更高效的模型。同时我们也引入了改进的swish\mathrm{swish}swish作为非线性函数。不管是压缩、激活还是swish\mathrm{swish}swish都会使用sigmoid\mathrm{sigmoid}sigmoid函数,这样可能会导致计算效率低下,并且在定点算法中难以保持精度,因此我们将其替换为硬sigmoid\mathrm{sigmoid}sigmoid函数。
4. Network Search
对于MobileNetV3,我们首先使用平台感知NAS算法搜索全局网络架构,接着使用NetAdapt算法搜索每层卷积核个数。这两种算法相互补充,可以结合起来为给定硬件平台优化网络模型。
平台感知NAS算法:是一种使用强化学习设计移动端模型的神经网络架构搜索算法。该算法整体流程如下图所示,包括一个基于递归神经网络(RNN)的控制器,一个获取模型精度的训练器及一个用于测量延迟基于手机的推理引擎。
首先控制器会根据自身参数θ\thetaθ采样一系列超参a1:Ta_{1:T}a1:T,采样方法如下图所示,采样输入是来自上一次采样输出的结果。之后,训练器会根据超参生成网络并训练网络得到模型准确率ACC(m)ACC(m)ACC(m),同时模型也会被集成至目标移动平台测量推理延迟LAT(m)LAT(m)LAT(m)。将上述两指标相结合得到强化学习奖励信号:
ACC(m)×[LAT(m)T]w,w={α,ifLAT(m)≤Tβ,otherwise(1)ACC(m)\times\left [\frac{LAT(m)}{T} \right]^w,w=\left \{ \begin{matrix}\alpha,&\mathrm{if}\ LAT(m)\leq T\\\beta,&\mathrm{otherwise}\end{matrix} \right.\tag{1} ACC(m)×[TLAT(m)]w,w={α,β,if LAT(m)≤Totherwise(1)
搜索最佳神经网络架构的过程即最大化期望奖励的过程:J(θ)=EP(a1:T;θ)[R](2)J(\theta)=E_{P(a_{1:T};\theta)}[R]\tag{2} J(θ)=EP(a1:T;θ)[R](2)
虽然奖励信号RRR不可微,但可以使用策略梯度去迭代更新θ\thetaθ:∇θJ(θ)=∑t=1TEP(a1:T;θ)[∇θlogP(at∣a(t−1):1;θ)R]≈1m∑k=1m∑t=1T∇θlogP(at∣a(t−1):1;θ)Rk(3)\nabla_\theta J(\theta)=\sum_{t=1}^TE_{P(a_{1:T};\theta)}[\nabla_{\theta}\log P(a_t|a_{(t-1):1};\theta)R]\approx \frac{1}{m}\sum_{k=1}^m\sum_{t=1}^T\nabla_{\theta}\log P(a_t|a_{(t-1):1};\theta)R_k\tag{3} ∇θJ(θ)=t=1∑TEP(a1:T;θ)[∇θlogP(at∣a(t−1):1;θ)R]≈m1k=1∑mt=1∑T∇θlogP(at∣a(t−1):1;θ)Rk(3)
4.1. Platform-Aware NAS for Block-wise Search
我们使用MnasNet-A1作为初始大移动端模型,然后在其之上使用NdetAdapt及其他算法进行优化。
MnasNet-A1所使用的的奖励函数并没有针对小移动端模型进行优化。具体来说,MnasNet-A1使用多目标奖励函数ACC(m)×[LAT(m)/TAR]wACC(m)\times[LAT(m)/TAR]^wACC(m)×[LAT(m)/TAR]w来逼近Pareto最优解。我们观察到,小模型的准确率对于延迟更加敏感,因此重新调整了权重系数w=−0.15w=-0.15w=−0.15(MnasNet-A1模型使用w=−0.07w=-0.07w=−0.07),以此来补偿延迟变换对准确率的影响。我们利用改进后的奖励函数进行网络架构搜索,然后使用NetAdapt及其他算法来优化MobileNetV3小模型。
MnasNet-A1:是论文《MnasNet: Platform-Aware Neural Architecture Search for Mobile》中搜索出的模型结构,架构如下图所示:
4.2. NetAdapt for Layer-wise Search
我们在架构搜索中采用的第二个技术是NetAdapt算法。该算法是对平台感知NAS算法的补充:它对各层而非全局架构进行微调。简而言之,该算法操作步骤如下:
-
利用平台感知NAS算法搜索种子网络架构。
-
本步骤包括以下三个部分:
(a) 生成一组建议。每个建议代表对网络架构的某种的修改,这种修改相对于上一个步骤,使模型在网络延迟上至少有δ\deltaδ的降低。
(b) 我们使用上一个步骤预训练好的模型,根据建议调整网络架构,并适当地截断及随机初始化丢失的权重。对于每个建议,我们使用TTT步进行模型微调,以此得到粗略的准确率估计。
© 根据某些指标选取最佳建议。
-
重复上一步,直至达到目标延迟。
我们采用准确率变化率与延迟变化率的比值作为指标。在所有建议中,选取使比值ΔACC∣Δlatency∣\frac{\Delta\mathrm{ACC}}{|\Delta\mathrm{latency}|}∣Δlatency∣ΔACC最大化的那一个,其中Δlatency\Delta\mathrm{latency}Δlatency满足步骤2(a)的约束。
重复上述步骤,直至网络延迟达到预设目标,之后我们会从头开始训练新网络架构。对于MoblieNetV2块,我们使用了如下两种建议:
- 减小扩展层的尺寸;
- 保持残差连接,减小瓶颈的尺寸。
对于我们的实验,我们使用T=10000T=10000T=10000及δ=0.1∣L∣\delta=0.1|L|δ=0.1∣L∣作为参数,其中LLL是种子模型的延迟。
5. Network Improvements
除网络搜索外,我们也引入了几种新组建用以优化最终模型。我们重新设计了网络输入输出中消耗运算资源较多的层。另外,我们也引入了新的非线性函数h−swish\mathrm{h-swish}h−swish,它是swish\mathrm{swish}swish的改进版,运算速度更快且对量化更友好。
5.1. Redesigning Expensive Layers
我们观察到,架构搜索的模型在输出及输入附近的层所消耗的运算资源相较于其他层更多。我们在保证模型准确率的同时对这些层进行一定的改进。这些改进不在当前搜索的空间范围内。
我们首先改进了网络输出最后几层的结构。架构搜索的模型是基于MobileNetV2的倒瓶颈块及其变种组建,在最后一层使用了1×11\times11×1卷积进行特征空间维度扩展。这一层用于丰富特征,对于模型预测至关重要,同时,它也会带来额外的延迟。
为了在减少延迟的同时保留高维度特征,我们将该层移动到平均池化层之外。最终,维度扩展是在1×11\times11×1而非7×77\times77×7的分辨率上进行。这样的设计与原始结构相比,特征扩展几乎不消耗运算资源及造成延迟。
一旦降低了特征扩展的运算成本,那么之前瓶颈结构中的用于降低运算量的投影层也不再被需要。我们将上一个瓶颈结构的投影及滤波层同时移除,这样可以更进一步地降低运算复杂度。原始及优化后的结构如下图所示。优化后的模型,其延迟减少了7ms7\mathrm{ms}7ms,大约是运行时间的11%11\%11%,同时也减少了300030003000万次乘加操作,并且几乎没有损失准确率。详细结果见第666节。
另一个消耗运算资源较多的层是网络输入层。当前移动端模型的输入层倾向于使用323232个3×33\times33×3的全卷积滤波器进行图像边缘检测。我们实验了减少滤波器数目及使用不同非线性函数对模型的影响。最终,我们选择硬swish\mathrm{swish}swish函数作为非线性函数,它与其他非线性函数具有同样优秀的性能。同时我们也发现,不管使用ReLU\mathrm{ReLU}ReLU还是swish\mathrm{swish}swish,在输入层使用161616个滤波器与使用323232个滤波器相同的准确率。这样可以减少2ms2\mathrm{ms}2ms延迟及100010001000万次乘加操作。
5.2. Nonlinearities
swish\mathrm{swish}swish作为ReLU\mathrm{ReLU}ReLU的替代品可以显著地提高神经网络的准确率。该非线性函数定义如下:
swishx=x⋅σ(x)(4)\mathrm{swish}\ x=x\cdot\sigma(x)\tag{4} swish x=x⋅σ(x)(4)
尽管提高了准确率,但是在移动设备上运算sigmoid\mathrm{sigmoid}sigmoid函数却需要消耗很多的运算资源。我们有两种方式来处理这个问题。
-
我们可以采用分段线性硬模拟的方式来实现sigmoid\mathrm{sigmoid}sigmoid函数:ReLU(x+3)6\frac{\mathrm{ReLU}(x+3)}{6}6ReLU(x+3)。同理,swish\mathrm{swish}swish函数的硬版本如下:
h−swish[x]=xReLU6(x+3)6(5)\mathrm{h-swish}[x]=x\frac{\mathrm{ReLU6}(x+3)}{6}\tag{5} h−swish[x]=x6ReLU6(x+3)(5)
下图对比了软硬版本的sigmoid\mathrm{sigmoid}sigmoid及swish\mathrm{swish}swish非线性函数。我们在实验中发现,使用硬版本的函数对于准确率几乎无影响,但是从模型部署的角度来看,硬版本的函数具有多种优势。首先,几乎所有的软件或硬件深度学习框架都提供ReLU6\mathrm{ReLU6}ReLU6的优化实现。其次,在量化模式下,硬版本的sigmoid\mathrm{sigmoid}sigmoid函数相较于其他近似函数其模型精度损失更低。最后,在实际操作中,h−swish\mathrm{h-swish}h−swish函数可以实现为分段函数以减少运算对内存的访问,从而大大降低延迟时间。
- 由于分辨率逐层减小,网络层次越深,非线性函数的运算资源消耗越低。我们实验发现,仅在更深的网络层中使用swish\mathrm{swish}swish函数即可实现其大部分收益。因此,我们仅在模型的后半段使用h−swish\mathrm{h-swish}h−swish函数。具体的架构布局请参考5.45.45.4节表格。
尽管使用了上述优化方法,h−swish\mathrm{h-swish}h−swish函数任然会导致一定的延迟升高。
5.3. Large squeeze-and-excite
我们将瓶颈结构中压缩及激发的尺寸固定为扩展层通道数的1/41/41/4。这样做可以在不增加参数量的情况下提高准确率,并且几乎不会增加网络延迟。
5.4. MobileNetV3 Definitions
MobileNetV3有两种定义版本:MobileNetV3-Large及MobileNetV3-Small。这两种模型分别针对高资源及低资源的应用而设计。模型通过平台感知NAS算法及NetAdapt算法搜索而来并且结合了本节中所提出的改进方法。具体网络完整规格请参见下表。
Input | Operator | exp size | #out | SE | NL | s |
---|---|---|---|---|---|---|
2242 x 3 | conv2d | - | 16 | - | HS | 2 |
1122 x 16 | bneck, 3 x 3 | 16 | 16 | - | RE | 1 |
1122 x 16 | bneck, 3 x 3 | 64 | 24 | - | RE | 2 |
562 x 24 | bneck, 3 x 3 | 72 | 24 | - | RE | 1 |
562 x 24 | bneck, 5 x 5 | 72 | 40 | ✓ | RE | 2 |
282 x 40 | bneck, 5 x 5 | 120 | 40 | ✓ | RE | 1 |
282 x 40 | bneck, 5 x 5 | 120 | 40 | ✓ | RE | 1 |
282 x 40 | bneck, 3 x 3 | 240 | 80 | - | HS | 2 |
142 x 80 | bneck, 3 x 3 | 200 | 80 | - | HS | 1 |
142 x 80 | bneck, 3 x 3 | 184 | 80 | - | HS | 1 |
142 x 80 | bneck, 3 x 3 | 184 | 80 | - | HS | 1 |
142 x 80 | bneck, 3 x 3 | 480 | 112 | ✓ | HS | 1 |
142 x 112 | bneck, 3 x 3 | 672 | 112 | ✓ | HS | 1 |
142 x 112 | bneck, 5 x 5 | 672 | 160 | ✓ | HS | 2 |
72 x 160 | bneck, 5 x 5 | 960 | 160 | ✓ | HS | 1 |
72 x 160 | bneck, 5 x 5 | 960 | 160 | ✓ | HS | 1 |
72 x 160 | conv2d, 1 x 1 | - | 960 | - | HS | 1 |
72 x 960 | pool, 7 x 7 | - | - | - | - | 1 |
12 x 960 | conv2d 1 x 1, NBN | - | 1280 | - | HS | 1 |
12 x 1280 | conv2d 1 x 1, NBN | - | k | - | - | 1 |
Input | Operator | exp size | #out | SE | NL | s |
---|---|---|---|---|---|---|
2242 x 3 | conv2d, 3 x 3 | - | 16 | - | HS | 2 |
1122 x 16 | bneck, 3 x 3 | 16 | 16 | - | RE | 2 |
562 x 24 | bneck, 3 x 3 | 72 | 24 | - | RE | 2 |
282 x 24 | bneck, 3 x 3 | 88 | 24 | - | RE | 1 |
282 x 24 | bneck, 5 x 5 | 96 | 40 | ✓ | HS | 2 |
142 x 40 | bneck, 5 x 5 | 240 | 40 | ✓ | HS | 1 |
142 x 40 | bneck, 5 x 5 | 240 | 40 | ✓ | HS | 1 |
142 x 40 | bneck, 5 x 5 | 120 | 48 | ✓ | HS | 1 |
142 x 48 | bneck, 5 x 5 | 144 | 48 | ✓ | HS | 1 |
142 x 48 | bneck, 5 x 5 | 288 | 96 | ✓ | HS | 2 |
72 x 96 | bneck, 5 x 5 | 576 | 96 | ✓ | HS | 1 |
72 x 96 | bneck, 5 x 5 | 576 | 96 | ✓ | HS | 1 |
72 x 96 | conv2d, 1 x 1 | - | 576 | ✓ | HS | 1 |
72 x 576 | pool, 7 x 7 | - | - | - | - | 1 |
12 x 576 | conv2d 1 x 1, NBN | - | 1024 | - | HS | 1 |
12 x 1024 | conv2d 1 x 1, NBN | - | k | - | - | 1 |
6. Experiments
我们的实验结果证明了MobileNetV3的高效性。我们报告了有关分类,检测和分割任务的实验结果。同时也进行了控制变量分析,以研究不同设计决策对模型测试结果的影响。
6.1. Classification
我们以ImageNet数据集为分类实验标准,比较了各种模型的准确率及资源消耗(例如延迟和乘加操作)。
6.1.1 Training setup
我们在4×44\times44×4 TPU Pod上利用tensorflow框架同步训练模型,采用的优化器为0.90.90.9动量的RMSProp。我们使用的初始学习速率为0.10.10.1,批大小为409640964096(每个芯片处理128128128张图片),学习速率每333个epcho会减小0.010.010.01。我们也使用0.80.80.8比例的dropout并且在损失函数中加入了1e−51e-51e−5比例的l2\mathrm{l2}l2正则化,然后采用Inception中相同的图像预处理方法。最后,我们对权重使用衰减系数为0.99990.99990.9999的指数滑动平均。所有的卷积层都使用了平均衰减系数为0.990.990.99的批标准化。
TPU Pod:是一组运行在谷歌数据中心中的服务器机架,每个机架都配备了谷歌的Tensor处理器单元(TPU)。
6.1.2 Measurement setup
我们在谷歌Pixel手机上,利用TFLite基准工具进行模型延迟测量。因为我们发现多核网络推理对于移动应用来说并不太实用,所以所有的测量都是在单线程大核中进行的。
6.2. Results
如下图所示,我们的模型优于目前最先进的技术,如MnasNet、ProxylessNas及MobileNetV2。
在下表中,我们分别对比了各个模型在不同Pixel系列手机上的浮点性能及量化性能。
Network | Top-1 | MAdds | Params | P-1 | P-2 | P-3 |
---|---|---|---|---|---|---|
V3-Large 1.0 | 75.2 | 219 | 5.4M | 51 | 61 | 44 |
V3-Large 0.75 | 73.3 | 155 | 4.0M | 39 | 46 | 40 |
MnasNet-A1 | 75.2 | 315 | 3.9M | 71 | 86 | 61 |
Proxyless | 74.6 | 320 | 4.0M | 72 | 84 | 60 |
V2 1.0 | 72.0 | 300 | 3.4M | 64 | 76 | 56 |
V3-Small 1.0 | 67.4 | 56 | 2.5M | 15.8 | 19.4 | 14.4 |
V3-Small 0.75 | 65.4 | 44 | 2.0M | 12.8 | 15.6 | 11.7 |
Mnas-Small | 64.9 | 65.1 | 1.9M | 20.3 | 24.2 | 17.2 |
V2 0.35 | 60.8 | 59.2 | 1.6M | 16.6 | 19.6 | 13.9 |
Network | Top-1 | P-1 | P-2 | P-3 |
---|---|---|---|---|
V3-Large 1.0 | 73.8 | 44 | 42.5 | 31.7 |
V2 1.0 | 70.9 | 52 | 48.3 | 37.0 |
V3-Small | 64.9 | 15.5 | 14.9 | 10.7 |
V3 0.35 | 57.2 | 16.7 | 15.6 | 11.9 |
在下图中,我们对比了不同乘数及分辨率的MobileNetV3模型。
6.2.1 Ablation study
非线性函数的影响 我们研究了h−swish\mathrm{h-swish}h−swish函数在模型中的插入位置及优化实现方式对准确率和延迟的影响,结果如下表所示,h−swish@N\mathrm{h-swish}@Nh−swish@N表示从通道数为NNN的层开始使用h−swish\mathrm{h-swish}h−swish作为激活函数的MobileNetV3-Large 1.0模型。从表中我们可以看到,优化h−swish\mathrm{h-swish}h−swish函数后,模型延迟降低了6ms6\mathrm{ms}6ms(超过10%10\%10%的运行时间)。优化h−swish\mathrm{h-swish}h−swish函数的模型仅比传统ReLU\mathrm{ReLU}ReLU函数的模型慢1ms1\mathrm{ms}1ms。
Top-1 | P-1 | P-1(no-opt) | |
---|---|---|---|
V3-Large 1.0 | 75.2 | 51.4 | 57.5 |
ReLU | 74.5(-.7%) | 50.5(-1%) | 50.5 |
h-swish@16 | 75.4(+.2%) | 53.5(+4%) | 68.9 |
h-swish@112 | 75.0(-.3%) | 51(-0.5%) | 54.4 |
下图研究了非线性函数及网络宽度的效率边界。
其他组件的影响 在下图中我们展现了不同组件的引入是如何推动模型延迟/准确率曲线移动的。
6.3. Detection
我们使用MobileNetV3替代SSDLite中的主干特征提取器,并在COCO数据集上与其他主干网络的SSDLite进行了比较。
与MobileNetV2操作相似,我们将SSDLite结构的第一层指定为输出步幅为161616的最后一个特征提取层,第二层指定为输出步幅为323232的最后一个特征提取层。我们将这两层分别用C4C4C4及C5C5C5表示。对于MobileNetV3-Large而言,C4C4C4是第131313个瓶颈块的扩展层。对于MobileNetV3-Small而言,C4C4C4是第999个瓶颈块的扩展层。对于两个网络而言,C5C5C5都是池化层之前的卷积层。
此外,我们还将C4C4C4及C5C5C5的之间的特征层通道数减少了222倍。这是因为MobileNetV3的后几层是为100010001000种类别ImageNet数据集而设计,这对于909090种类别的COCO数据集来说是冗余的。
下表给出了各个模型在COCO数据集上的测试结果,其中+++表示通道数减少后的模型。通道数减少后的MobileNetV3-Large与MobileNetV2性能相当但是快27%27\%27%。通道数减少后的MobileNetV3-Small比MobileNetV2和NnasNet性能高2.42.42.4和0.50.50.5 mAP的同时速度快15%15\%15%。对于两种MobileNetV3模型而言,通道数减少可以降低约15%15\%15%的延迟,而且无mAP损失,这意味着对于ImageNet分类任务与COCO目标检测任务而言特征提取器倾向于不同的尺寸。
Backbone | mAP | Latency(ms) | Params(M) | MAdds(B) |
---|---|---|---|---|
V1 | 22.2 | 228 | 5.1 | 1.3 |
V2 | 22.1 | 162 | 4.3 | 0.80 |
MnasNet | 23.0 | 174 | 4.88 | 0.84 |
V3 | 22.0 | 137 | 4.97 | 0.62 |
V3+ | 22.0 | 119 | 3.22 | 0.51 |
V2 0.35 | 13.7 | 66 | 0.93 | 0.16 |
V2 0.5 | 16.6 | 79 | 1.54 | 0.27 |
MnasNet 0.35 | 15.6 | 68 | 1.02 | 0.18 |
V3-Small | 16.0 | 52 | 2.49 | 0.21 |
V3-Small+ | 16.1 | 43 | 1.77 | 0.16 |
SSDLite:是MobileNetV2中提出的一种SSD网络的变体,将SSD网络中预测层部分的传统卷积替换为了深度可分离卷积。SSD整体结构如下图所示。
6.4. Semantic Segmentation
在本小节中,我们对比使用MobileNetV2及MobileNetV3作为主干网络的移动端语义分割模型。此外,我们还比较了两种分割头。第一种被称为R-ASPP,是ASPP的简化设计,仅包含1×11\times11×1卷积及全局平均池化两个分支。在本文中,我们提出了另一种轻量级分割头,被称为Lite R-ASPP(或LR-ASPP),如下图所示。Lite R-ASPP是对R-ASPP的改进,它在全局平均池化分支中添加了类似压缩及激发的模块。我们在MobileNetV3的最后一个构建块中使用空洞卷积来提取更稠密的特征,并且在低级特征中添加跳接连线来捕获更详细的信息。
我们在Cityscapes数据集上使用mIOU为度量指标进行实验,并且只使用像素级注释图像。我们所有的模型都从零开始训练,不需要在ImageNet进行预训练,并且使用单尺度输入进行评估。与目标检测实验相似,我们发现将主干网络最后一个构建块中的通道减少222倍,模型性能并不会显著降低。我们认为,这是因为主干网络是在ImageNet数据集上进行设计的,该数据集有100010001000个类别,然而Cityscapes数据集仅有191919个类别,这意味着主干网络中存在一些冗余信道。
我们在Cityscapes的验证集上进行实验,结果如下表所示。我们发现(1)将主干网络的最后一个构建块中的通道减少222倍后,模型速度显著加快,同时其性能并不会明显变化(第111行与第222行,第555行与第666行),(2)LR-ASPP比R-ASPP稍快,同时性能也更优(第222行与第333行,第666行与第777行),(3)将分割头中的滤波器由256256256减少到128128128个,模型性能会稍微降低但是速度会提升(第333行与第444行,第777行与第888行),(4)对于相同的配置,MobileNetV3在保持相近性能的同时稍快于MobileNetV2(第111行与第555行,第222行与第666行,第333行与第777行,第444行及第777行),(5)MobileNetV3-Small与MobileNetV2-0.5性能接近,但速度更快,(6)MobileNetV3-Small与MobileNetV2-0.35速度接近,但性能更优。
N | Backbone | RF2 | SH | F | mIOU | Params | MAdds | CPU(f) | CPU(h) |
---|---|---|---|---|---|---|---|---|---|
1 | V2 | - | x | 256 | 72.84 | 2.11M | 21.29B | 3.90s | 1.02s |
2 | V2 | ✓ | x | 256 | 72.56 | 1.15M | 13.68B | 3.03s | 793ms |
3 | V2 | ✓ | ✓ | 256 | 72.97 | 1.02M | 12.83B | 2.98s | 786ms |
4 | V2 | ✓ | ✓ | 128 | 72.74 | 0.98M | 12.57B | 2.89s | 766ms |
5 | V2 | - | x | 256 | 72.64 | 3.60M | 18.43B | 3.55s | 906ms |
6 | V3 | ✓ | x | 256 | 71.91 | 1.76M | 11.24B | 2.60s | 668ms |
7 | V3 | ✓ | ✓ | 256 | 72.37 | 1.63M | 10.33B | 2.55s | 659ms |
8 | V3 | ✓ | ✓ | 128 | 72.36 | 1.51M | 9.74B | 2.47s | 657ms |
9 | V2 0.5 | ✓ | ✓ | 128 | 68.57 | 0.28M | 4.00B | 1.59s | 415ms |
10 | V2 0.35 | ✓ | ✓ | 128 | 66.83 | 0.16M | 2.54B | 1.27s | 354ms |
11 | V3-Small | ✓ | ✓ | 128 | 68.38 | 0.47M | 2.90B | 1.21s | 327ms |
同时,我们也将MobileNetV3与其他网络模型进行了比较。使用MobileNetV3作为主干网络的分割模型其性能分别优于ESPNetv2,CCC2及ESPNetv1,6.4%6.4\%6.4%,10.6%10.6\%10.6%及12.3%12.3\%12.3%,并且所使用乘加操作更少。在MobileNetV3最后一个构建块中,如果不使用空洞卷积,模型性能会略微下降0.6%0.6\%0.6%,但所使用乘加操作减少到1.98B1.98\mathrm{B}1.98B,分别比ESPNetv2,CCC2和ESPNetv1少1.361.361.36,1.591.591.59和2.272.272.27倍。另外,以MobileNetV3作为主干网络的模型仍然比其他模型性能至少好2.1%2.1\%2.1%。
Backbone | OS | mIOU | MAdds(f) | MAdds(h) | CPU(f) | CPU(h) |
---|---|---|---|---|---|---|
V3 | 16 | 72.6 | 9.74B | 2.48B | 2.47s | 657ms |
V3 | 32 | 72.0 | 7.74B | 1.98B | 2.06s | 534ms |
V3-Small | 16 | 69.4 | 2.90B | 0.74B | 1.21s | 327ms |
V3-Small | 32 | 68.3 | 2.06B | 0.53B | 1.03s | 275ms |
ESPNetv2 | - | 66.2 | - | 2.7B | - | - |
CCC2 | - | 62.0 | - | 3.15B | - | - |
ESPNetv1 | - | 60.3 | - | 4.5B | - | - |
ASPP:是DeepLabV3中提出的空洞空间金字塔模块,包括111个1×11\times11×1卷积层,333个不同空洞率的空洞卷积层及111个池化层,结构如下图所示。
Cityscapes:是关于城市街道场景的语义分割图片数据集。其场景来自于505050个不同的城市街道,包括500050005000张高质量像素级注释图像(297529752975张训练图像,500500500张验证图像及152515251525张测试图像,共191919种类别)和200002000020000张粗造注释图像。
7. Conclusions and future work
略
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
相关文章
- fastStructure和SNPhylo安装使用
fastStructure和SNPhylo安装使用 1.1 fastStructure安装步骤(python2.7) fastStructure是python软件编写的计算群体结构的软件,依赖较多,官网编译下载复杂,使用conda或者docker更方便。 conda create -n faststruct…...
2024/4/20 2:00:03 - 035. 好的人生,要有好的心态
新的一年里,如果我们无法避免地要去面对各种未知、困境和麻烦,那么愿你保持一个好心态。要相信,没有翻不过去的山,也没有过不了的河,没有哪一个冬天不可逾越。 遇到困难,迎难而上,也许就会有转机;遇到坏事,变换角度,它也可能变成好事;遇到麻烦,积极面对,总会有解决…...
2024/4/13 16:06:58 - (二)、MySQL主从架构
MySQL主从架构 11.1 mysql replication 在生产环境下,如果对数据进行读写操作都是在同一个数据库中进行的。无论是在安全性、高可用性、还是高并发等各个方面都是完全不可能满足实际需求的。因此一般都是通过主从复制(master-slave)的方式来同步数据࿰…...
2024/4/16 1:53:00 - Java基础——Map接口
Map接口是和Collection同等级的根接口,它表示一个键值对(key-value)的映射,每一个key对应一个value,查找Map中的数据,总是根据key来获取,所以key是不可重复的。 1.Map接口 Map集合的特点&…...
2024/4/20 2:14:53 - Java网络编程笔记
Java网络编程14-1 网络编程概述14-2 网络通信要素概述14-3 通信要素一:IP和端口号14-4 通信要素二:网络协议14-5 TCP网络编程14-1 网络编程概述 一、网络编程概述 1.Java是 Internet 上的语言,它从语言级上提供了对网络应用程序的支持&#x…...
2024/4/7 20:48:18 - 【GO语言04-1】Go语言中关于函数定义、闭包函数、作用域、defer关键字详解
Go语言中的功能封装是通过函数进行的,不同结构体之间可以通过接口来进行统一,再结合反射特性就可以开发大型的、复杂的项目。 文章目录一、函数的定义二、闭包补充一下:三、作用域四、返回值与变长参数4.1、返回多个值4.2、入参为变长参数4.3…...
2024/4/7 20:48:17 - 前端---基础标签
<!DOCTYPE html> <html> <head> <meta charset"utf-8" /> <title>常用标签</title> </head> <body> <!-- 标题标签 h1~h6 大小依次递减 …...
2024/4/16 21:40:43 - MySQL - 学习笔记 - 标准SQL函数 Standard SQL Functions
MySQL - 学习笔记 - 标准SQL函数 Standard SQL Functions标准SQL函数速查表参考资料标准SQL函数速查表 标准SQL函数速查表.PDF CSDN下载 参考资料 官方文档:MySQL 5.7 Reference Manual / Functions and Operators LearnSQL:标准SQL函数速查表...
2024/4/28 16:14:10 - nth_element(C++)
首先,对于C里面的nth_element而言,要调用#include<algorithm>头文件,还有就是其默认为是求第k小的;对应的模板就是nth_element(a,ak,an);而且其只是把下标为k的数组中的元素放到了正确的位置,对于其他元素就没有…...
2024/4/19 16:45:05 - 第十一届蓝桥杯 ——互质
问题描述 今年是 2020 年,今天是 10 月 18 日。 请问在 1 到 2020 中,有多少个数与 1018 互质。 答案提交 这是一道结果填空的题,你只需要算出结果后提交即可。 本题的结果为一个整数,在提交答案时只填写这个整数,填…...
2024/4/13 16:07:03 - python100天之day7
函数的一些例子 1.百分制成绩转换为等级制成绩。 要求:如果输入的成绩在90分以上(含90分)输出A;80分-90分(不含90分)输出B;70分-80分(不含80分)输出C;60分-…...
2024/4/20 6:10:31 - 用vs运行结果出现不是内部或外部命令,也不是可运行的程序或批处理文件时...
1.用vs新建项目:详细操作如图 如上图当我们建立C文件名称时,一定要注意“ .cpp ”不能更改,一但更改代表的便不是C的源程序。 1、.c:表示C的源程序,c中变量声明和代码是分开的,必须在函数开始处声明。 2、…...
2024/4/5 3:01:03 - Java中多态的理解
面向对象的三大特性:封装、继承、多态。从一定角度来看,封装和继承几乎都是为多态而准备的。这是我们最后一个概念,也是最重要的知识点。 2.多态的定义:指允许不同类的对象对同一消息做出响应。即同一消息可以根据发送对象的不同而…...
2024/4/13 16:06:53 - 为什么Diffusion Models钟爱U-net结构?
前言:今天是大年初一,先祝大家新年快乐!本文是《Diffusion models与深度学习》的第九篇文章,通过前面的文章介绍,大家应该已经基本了解扩散模型的特点,细心的读者会有疑问,为什么现在绝大部分的diffusion models都是U-net结构呢?这个发源于医疗分割的网络结构,为何广受…...
2024/4/13 16:07:03 - 【图像增强】基于gabor滤波器实现指纹增强含Matlab源码
1 简介 D.Gabor 1946年提出 窗口Fourier变换,为了由信号的Fourier变换提取局部信息,引入了时间局部化的窗函数。 由于窗口Fourier变换只依赖于部分时间的信号,所以,现在窗口Fourier变换又称为短时Fourier变换,这个变…...
2024/4/25 13:58:01 - LeetCode算法入门之双指针—283. 移动零
给定一个数组 nums,编写一个函数将所有 0 移动到数组的末尾,同时保持非零元素的相对顺序。请注意 ,必须在不复制数组的情况下原地对数组进行操作。示例 1:输入: nums [0,1,0,3,12] 输出: [1,3,12,0,0]示例 2:输入: nums [0] 输出: [0]思路&…...
2024/4/7 20:48:14 - DDD(领域驱动设计)思想解读及优秀实践MK
Download:百度网盘 提取码:45on 笔者在经历的很多项目中都使用了DDD领域驱动设计进行架构设计,尤其是在业务梳理、中台规划以及微服务划分等方面,DDD是重要的架构设计方法论,对平时的架构设计有非常好的指导作用。从本…...
2024/4/13 15:26:49 - leetcode 515 在每个树行中找最大值
思路 原题链接 每一层维护一个变量,用于存储最大值注意:q.poll() 语句要在for循环内部执行 class Solution {public List<Integer> largestValues(TreeNode root) {List<Integer> result new LinkedList<>();if (root null) {ret…...
2024/4/13 16:07:03 - JSP标签、JSTL标签、EL表达式
需要导入这两个jar包 <!--JSTL表达式的依赖--> <dependency><groupId>javax.servlet.jsp.jstl</groupId><artifactId>jstl-api</artifactId><version>1.2</version> </dependency><!--standard标签库--> <depe…...
2024/4/19 10:07:53 - S71200PLC程序博图V14 西门子博图编写
S71200PLC程序博图V14 西门子博图编写, 程序包含 S7-1200程序、TP1200程序、V90PN程序 如下图所述。 4830639510012986RAstudio...
2024/5/5 3:48:43
最新文章
- 系统架构-知识产权
常见知识产权考点...
2024/5/5 5:36:46 - 梯度消失和梯度爆炸的一些处理方法
在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言,在此感激不尽。 权重和梯度的更新公式如下: w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...
2024/3/20 10:50:27 - 【Ubuntu】在 Windows 和 Ubuntu 之间传输文件
在 Ubuntu 上安装 Samba: sudo apt-get update sudo apt-get install samba在 Ubuntu 上创建一个共享文件夹并设置权限: mkdir /home/your_username/shared sudo chown nobody:nogroup /home/your_username/shared sudo chmod 0777 /home/your_username/…...
2024/5/4 6:23:58 - Docker Desktop+WSL2安装到自定义路径
现在大多数软件实在太“流氓”了,在安装过程中,根本不让你选择安装路径,默认安装到$HOME下(windows C盘),随着软件的使用增多,可能磁盘空间不够,这个时候就想着,看看某些…...
2024/5/4 9:55:38 - 3d representation的一些基本概念
顶点(Vertex):三维空间中的一个点,可以有多个属性,如位置坐标、颜色、纹理坐标和法线向量。它是构建三维几何形状的基本单元。 边(Edge):连接两个顶点形成的直线段,它定…...
2024/5/4 4:07:45 - 【外汇早评】美通胀数据走低,美元调整
原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...
2024/5/4 23:54:56 - 【原油贵金属周评】原油多头拥挤,价格调整
原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...
2024/5/4 23:54:56 - 【外汇周评】靓丽非农不及疲软通胀影响
原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...
2024/5/4 23:54:56 - 【原油贵金属早评】库存继续增加,油价收跌
原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...
2024/5/4 23:55:17 - 【外汇早评】日本央行会议纪要不改日元强势
原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...
2024/5/4 23:54:56 - 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响
原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...
2024/5/4 23:55:05 - 【外汇早评】美欲与伊朗重谈协议
原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...
2024/5/4 23:54:56 - 【原油贵金属早评】波动率飙升,市场情绪动荡
原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...
2024/5/4 23:55:16 - 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试
原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...
2024/5/4 23:54:56 - 【原油贵金属早评】市场情绪继续恶化,黄金上破
原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...
2024/5/4 18:20:48 - 【外汇早评】美伊僵持,风险情绪继续升温
原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...
2024/5/4 23:54:56 - 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势
原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...
2024/5/4 23:55:17 - 氧生福地 玩美北湖(上)——为时光守候两千年
原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...
2024/5/4 23:55:06 - 氧生福地 玩美北湖(中)——永春梯田里的美与鲜
原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...
2024/5/4 23:54:56 - 氧生福地 玩美北湖(下)——奔跑吧骚年!
原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...
2024/5/4 23:55:06 - 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!
原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...
2024/5/4 2:59:34 - 「发现」铁皮石斛仙草之神奇功效用于医用面膜
原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...
2024/5/4 23:55:16 - 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者
原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...
2024/5/4 23:54:58 - 广州械字号面膜生产厂家OEM/ODM4项须知!
原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...
2024/5/4 23:55:01 - 械字号医用眼膜缓解用眼过度到底有无作用?
原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...
2024/5/4 23:54:56 - 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...
解析如下:1、长按电脑电源键直至关机,然后再按一次电源健重启电脑,按F8健进入安全模式2、安全模式下进入Windows系统桌面后,按住“winR”打开运行窗口,输入“services.msc”打开服务设置3、在服务界面,选中…...
2022/11/19 21:17:18 - 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。
%读入6幅图像(每一幅图像的大小是564*564) f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...
2022/11/19 21:17:16 - 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...
win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面,在等待界面中我们需要等待操作结束才能关机,虽然这比较麻烦,但是对系统进行配置和升级…...
2022/11/19 21:17:15 - 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...
有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows,请勿关闭计算机”的提示,要过很久才能进入系统,有的用户甚至几个小时也无法进入,下面就教大家这个问题的解决方法。第一种方法:我们首先在左下角的“开始…...
2022/11/19 21:17:14 - win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...
置信有很多用户都跟小编一样遇到过这样的问题,电脑时发现开机屏幕显现“正在配置Windows Update,请勿关机”(如下图所示),而且还需求等大约5分钟才干进入系统。这是怎样回事呢?一切都是正常操作的,为什么开时机呈现“正…...
2022/11/19 21:17:13 - 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...
Win7系统开机启动时总是出现“配置Windows请勿关机”的提示,没过几秒后电脑自动重启,每次开机都这样无法进入系统,此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一:开机按下F8,在出现的Windows高级启动选…...
2022/11/19 21:17:12 - 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...
有不少windows10系统用户反映说碰到这样一个情况,就是电脑提示正在准备windows请勿关闭计算机,碰到这样的问题该怎么解决呢,现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法:1、2、依次…...
2022/11/19 21:17:11 - 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...
今天和大家分享一下win7系统重装了Win7旗舰版系统后,每次关机的时候桌面上都会显示一个“配置Windows Update的界面,提示请勿关闭计算机”,每次停留好几分钟才能正常关机,导致什么情况引起的呢?出现配置Windows Update…...
2022/11/19 21:17:10 - 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...
只能是等着,别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚,只能是考虑备份数据后重装系统了。解决来方案一:管理员运行cmd:net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...
2022/11/19 21:17:09 - 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?
原标题:电脑提示“配置Windows Update请勿关闭计算机”怎么办?win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢?一般的方…...
2022/11/19 21:17:08 - 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...
关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!关机提示 windows7 正在配…...
2022/11/19 21:17:05 - 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...
钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...
2022/11/19 21:17:05 - 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...
前几天班里有位学生电脑(windows 7系统)出问题了,具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面,长时间没反应,无法进入系统。这个问题原来帮其他同学也解决过,网上搜了不少资料&#x…...
2022/11/19 21:17:04 - 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...
本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法,并在最后教给你1种保护系统安全的好方法,一起来看看!电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中,添加了1个新功能在“磁…...
2022/11/19 21:17:03 - 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...
许多用户在长期不使用电脑的时候,开启电脑发现电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机。。.这要怎么办呢?下面小编就带着大家一起看看吧!如果能够正常进入系统,建议您暂时移…...
2022/11/19 21:17:02 - 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...
配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!配置windows update失败 还原更改 请勿关闭计算机&#x…...
2022/11/19 21:17:01 - 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...
不知道大家有没有遇到过这样的一个问题,就是我们的win7系统在关机的时候,总是喜欢显示“准备配置windows,请勿关机”这样的一个页面,没有什么大碍,但是如果一直等着的话就要两个小时甚至更久都关不了机,非常…...
2022/11/19 21:17:00 - 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...
当电脑出现正在准备配置windows请勿关闭计算机时,一般是您正对windows进行升级,但是这个要是长时间没有反应,我们不能再傻等下去了。可能是电脑出了别的问题了,来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...
2022/11/19 21:16:59 - 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...
我们使用电脑的过程中有时会遇到这种情况,当我们打开电脑之后,发现一直停留在一个界面:“配置Windows Update失败,还原更改请勿关闭计算机”,等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢࿰…...
2022/11/19 21:16:58 - 如何在iPhone上关闭“请勿打扰”
Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...
2022/11/19 21:16:57