转载请附上原文链接,谢谢

0 abstract:

最近卷积神经网络经常被用到对单图像超分辨率的高质量重建中。在这篇论文中,我们提出了Laplacian金字塔超分辨率网络(LapSRN)来逐步重构高分辨率图像的子频带残差(sub-band residuals)在每个金字塔的层,我们将粗分辨率特征图作为输入,预测高频残差(high-frequency residuals),并使用反卷积(transposed convolutions)来进行向上采样到finer level。我们的方法并没有将双三次差值(bicubic interpolation)作为预处理步骤,从而减小了计算的复杂性。我们使用了一个强大的Charbonnier损失函数对所提出的LapSRN进行了深入的监督,实现了高质量的重建。我们的网络通过渐进的重构,在一个前馈的过程(feed-forward)中产生了多尺度的预测,从而促进了资源感知(resorce-aware)的应用。对基准数据集进行了大量的定量和定性评估,结果表明,该算法在速度和精度方面优于最先进的方法。

1 Introduction:

单图像超级分辨率(SR)旨在从单个低分辨率(LR)输入图像重建高分辨率(HR)图像。近年来,基于实例(example-based)的SR方法通过使用大型图像数据库从LR到HR图像块的映射展示了最先进的性能。目前已经应用了大量的学习算法来学习这样的映射,包括字典学习(dictionary learning)【37、38】、本地线性回归(linear regression)【30、36】和随机森林(random forest)【26】。

最近,Dong 等人提出了一种超分辨率卷积神经网络(SRCNN)来学习非线性的LR-to-HR映射。这个网络被扩展到嵌入一个稀疏的基于编码的网络【33】或者使用一个更深层次的结构。虽然这些模型显示了Promissing 的结果,但有三个主要问题首先,现有的方法使用预先定义的上采样处理器(upsampling operator),e.g.:①双三次差值。在应用网络进行预测之前,上采样输入图像为目标分辨率大小的图像这个预处理步骤增加了不必要的计算成本,并且经常导致可见的人工痕迹(artifacts)。②一些算法通过在LR图像上执行卷积和用亚像素的卷积【28】或反卷积(转置卷积)来代替预定义的向上采样处理器来加速SRCNN。然而,这些方法使用相对较小的网络,由于网络容量有限,不能很好地学习复杂的映射。其次,现有的方法用 l2 loss对网络进行优化,不可避免地产生了模糊的预测。由于这 l2 loss 无法捕捉HR补丁的底层多模式分布(the underlying multi-modal distributions)(例如同样的LR补丁可能有许多相应的HR补丁),重建的HR图像往往过于平滑,不接近人类对自然图像的视觉感知。第三,大多数方法在一个向上的采样步骤中重建HR图像,这增加了对大尺度因子(例如,8×)的训练的难度。此外,前一种方法不能在多个分辨率下生成中间SR预测。因此,我们需要为各种不同 目标上采样范围和计算负载different desired upsampling scales and computational loads的应用训练各种不同的模型。

为了解决这些缺点,我们提出了基于级联(a cascade of)卷积神经网络(CNNs)的Laplacian金字塔超分辨率网络(LapSRN)。我们的网络工作以一个LR的图像作为输入,并以一种粗到细的方式(in a coarse-to-fine fashion)逐步预测子带残差(sub-band residuals)。在每个层次(level)上,我们首先应用一个级联(a cascade of)卷积层(layers)来提取特征图。然后我们使用一个转置卷积层来将特征映射向上采样到一个更细的层次(a finer level)。最后,我们使用一个卷积层来预测子带残差(sub-band residuals)(在各自的层次上,向上采样的图像与地面真实的HR图像之间的区别)。每一层的预测残差被用来有效地重建HR图像,通过向上采样和其他的操作。虽然提议的LapSRN由一组级联子网络组成,但我们以端到端的方式( in an end-to-end fashion,without stage-wise optimization)用稳健的Charbonnier 损失函数( robust Charbonnier loss function)对网络进行训练。如下图1(e),我们的网络架构自然能容纳深度的监督(例如监控信号可以同时应用于金字塔的每一个层面上)。

图1:涂上表示了各个网络的结构图,红色的箭头表示卷积层,蓝色箭头表示反卷积(上采样),绿色箭头表示元素加法操作,橘色的箭头表示周期性的层

我们的算法在以下三个方面与现有的基于cnn的方法不同:

(1) 精度。提出的LapSRN提取方法直接从LR图像中提取t特征图,并用深度卷积层联合优化了上采样过滤器以预测子带残差。使用Charbonnier loss的深入监督提高了性能,因为它能更好地处理离群值(outliers)。因此,我们的模型有很大的容量来学习复杂的映射,并且有效地减少了artifacts。

(2)速度。我们的LapSRN既拥有快速处理速度,也拥有深度网络的高容量( high capacity of deep networks)。实验结果表明,我们的方法比基于CNN的超分辨率模型快得多,例如,SRCNN【7】、SCN 【33】、VDSR【17】和DRCN【18】。与FSRCNN 8相似,我们的LapSRN在大多数被评估的数据集上实现了实时速度。此外,我们的方法有更好的重建精度。

(3)渐进式重建(Progressive reconstruction)。我们的模型通过使用 Laplacian金字塔的渐进重建,在一个前馈式( in one feed-forward)中产生了多个中间SR预测。这一特性使我们的技术应用于广泛的应用程序( require resource-aware adaptability)。例如,同一个网络可以用来增强视频的空间分辨率,这取决于可用的计算资源。对于具有有限计算资源的ios来说,我们的8×模型仍然可以通过简单地绕过在更细的水平上的残差计算来执行2×或4×SR。然而,现有的基于cnn方法的方法并没有提供这种灵活性。

2.Related Work and Problem Context

文献中提出了大量的单图像超分辨率方法。在这里,我们将重点讨论最近基于实例的方法。
基于内部数据库的SR:一些方法【
9、12】利用自然图像中的自相似性属性,基于低分辨率输入图像的尺度空间金字塔构造LR-HR补丁对。然而内部数据库包含的相关训练补丁比外部数据库要多,LR-HR补丁对的数量可能不足以覆盖图像中较大的纹理变化。Singh【29】等人将补丁分解成定向频率子带(directional frequency sub-bands ),并独立地在每个子带金字塔(sub-band pyramid)中确定更好的匹配。Huang等人【15】扩展了补丁搜索空间,以适应仿射变换和透视变形。基于内部数据库的SR方法的主要缺点是,由于在比例空间的金字塔中,补丁搜索的计算成本很高,所以它们的速度非常慢。

基于外部数据库的SR:大量的SR方法通过从外部数据库中收集的图像对学习LR-HR映射,使用监督学习算法,比如earest neighbor [10] manifold embedding [2, 5], kernel ridge regression [19], and sparse representation [37, 38, 39]。不是直接在整个数据库上对复杂的补丁空间进行建模,而是通过k均值【36】、稀疏字典【30】或随机森林【26】来划分图像数据库,并学习每个集群的局部线性回归。

基于SR的卷积神经网络:与在补丁空间中对LR-HR映射建模不同的是,SRCNN 【7】联合优化了所有的步骤,并在图像空间中学习了非线性映射。VDSR网络【17】通过将网络深度从3个层增加到20个卷积层,显示了对SRCNN 7的显著改进。为了促使训练出一个更快收敛速度的更深的模型,VDSR训练网络来预测剩余的值,而不是实际的像素值。Wang【33】等人将稀疏编码的领域知识与深度CNN结合起来,并训练一个级联网络(SCN),逐步将图像提升到所需的比例因子。Kim等人【18】提出了一个具有深度递归层(DRCN)的浅层网络,以减少参数的数量。

为了实现实时性能,ESPCN网络【28】提取了LR空间中的特征图,并用一个高效的子像素卷积(efficient sub-pixel convolution)取代了双三次上采样操作。FSRCNN网络【8】采用了类似的想法,使用了一个沙漏形(a hourglass-shaped)的CNN,它的层次比ESPCN上的要多,但参数更少。所有以上的基于cnn的sr的方法都是用L2 loss function 优化网络,但这通常会导致过于平滑的结果而使不符合人类的感知。在SR的背景下,我们证明了2个损失对于学习和预测稀疏残差的效果较差。

我们之前在 图1 中对比了各个方法的网络结构,现在我们在 表1 中列出现有的基于cnn方法和已经提出的框架之间的主要区别

我们的方法建立在现有的基于cnn的SR算法之上,有三个主要的区别:   1.我们用卷积和转置卷积层来共同学习残差和向上采样滤波器。使用学习得到的上采样滤波器不仅有效地抑制了由双三次插值引起的重构 artifacts,而且极大地降低了计算复杂度。   2.我们不是L2损失函数来处理离群值( outliers,而是利用一个强大的Charbonnier损失函数来优化深层网络,提高重建的准确性。     3.当提出的LapSRN逐步重构HR图像时,同样的模型可以应用于需要不同规模因子的应用程序,将网络截断到一定的级别。

Laplacian pyramid:Laplacian金字塔已经被广泛应用于各种各样的应用中,如图像混合(image blending [4],纹理合成(texture synthesis) [14],边缘感知过滤(edge-aware filtering) [24]和语义分割(semantic segmentation) [11, 25]。Denton 等人提出了一种基于Laplacian金字塔框架(LAPGAN)的生成模型(generative model)以在[6]中生成逼真的图像,这是与我们的工作最相关的。然而,提出的LapSRN与LAPGAN的不同之处在于三个方面:
1.首先,LAPGAN是一种生成模型,它被设计成从随机噪音和样本输入中合成各种自然图像(synthesize diverse natural images)。相反,我们的LapSRN是一个超分辨率模型,它可以根据给定的LR映像来预测特定的HR映像。LAPGAN使用交叉熵损失函数( cross-entropy loss function)来使输出图像尊从训练数据集的数据分布。与此相反,我们使用Charbonnier惩罚函数(Charbonnier penalty function)来惩罚来自地面真值子带残余的预测偏差(penalize the deviation of the prediction from the ground truth sub-band residuals)。

 

2.其次,LAPGAN的子网络是独立的(即没有权重共享)。因此,网络容量受到每个子网络的深度的限制。与LAPGAN不同,LapSRN的每个层次上的卷积层通过多通道转置卷积层连接起来。因此,更高层次上的残差图像(residual images)是由一个在较低的层次上具有共享特征表示的较深的网络预测的( a deeper network with shared feature representations at lower levels)。较低层次的特性共享增加了在更细的卷积层(at finer convolutional layers)上的非线性,从而学习复杂的映射。此外,LAPGAN的子网络也得到了独立的培训。另一方面,在LapSRN中,所有用于特征提取、向上采样和残余预测层的卷积过滤器都是通过一种端到端的、深入监督的方式进行联合训练的。

 

3.第三,LAPGAN上采样图像是通过卷积,因此速度取决于HR图像的大小。相反,我们的LapSRN的设计,通过从LR空间中提取特性,有效地增加了感受野 receptive field的大小并加速了速度。我们在补充材料中提供了与LAPGAN的对比。

Adversarial training. (对抗训练)SRGAN方法【20】利用感知损失( the perceptual loss)【16】和与现实图片的对抗损失(the adversarial loss来优化网络。我们注意到,我们的LapSRN可以很容易地扩展到对抗训练框架中。由于这不是我们的贡献,我们在补充材料中提供了对抗损失的实验。

3.Deep Laplacian Pyramid Network for SR

在本节中,我们描述了提出的Laplacian金字塔网络的设计方法,利用深度监督的鲁棒损失函数进行优化,以及网络训练的细节。

3.1. Network architecture

我们提出基于拉帕拉斯金字塔框架(Laplacian pyramid framework)来构造我们的网络,如图1(e)所示。我们的模型将一个LR图像作为输入(而不是一个上采样过的LR映像),并逐步预测在log2 S级别上的残差图像,S是比例因子。例如,该网络由3个子网络组成,用于超分辨LR图像的比例因子为8。我们的模型有两个分支:(1)特征提取和(2)图像重建。

Feature extraction. 在level s状态下,特征提取分支由d个卷积层和一个上采样因子为2的特征提取的反卷积层组成,以2的比例对提取的特征进行采样。每一个转置卷积层的输出连接到两个不同的层:(1)用于在s水平上重建残差图像一个卷积层;(2)用于在s+1水平上重建残差图像一个卷积层。请注意,我们只用一个转置卷积层,在粗糙的分辨率下执行特性提取,更高分辨率下生成特征映射。与现有的在高分辨率下执行所有特征提取和重建网络相比,我们的网络设计大大降低了计算复杂度。请注意,低级别的特征表示与更高的级别共享,因此可以增加网络的非线性,从而在更细的级别上学习复杂的映射。

Image reconstruction. 在level s状态下,输入图像通过一个转置卷积层被2比例上采样。我们用双线性内核初始化这一层,并允许它与所有其他层一起进行优化。然后将上采样得到的图像和来自特征提取分支的预测的残差图像组合起来(使用元素求和)来生成高分辨率的输出图像。然后将输出的HR图像输入到级别s+1的图像重建分支中。整个网络是一个由相同的结构在每个层次上的cnn级联。

3.2. Loss function

假设x为输入的LR映像,θ是一系列需要被优化的网络参数集。我们的目标是学习生成接近真实HR影像yground truth HR image)的高分辨率图像的映射函数f,即。我们把level s 的残差图像表示为,把上采样的LR影像表示为,他对应的HR影像为,在level s 层输出的HR影像为:。我们在每一个层次用双三次降采样对真实的HR影像y 调整到ys大小。我们在这里使用一个健壮的损耗函数来处理离群值,而不是最小化之间的均方误差( the mean square errors)。总体损失函数的定义是:

其中是Charbonnier penalty function(a differentiable variant of  L1 norm,L1范数的可微变型) [3],N是每批的训练样本数,L是我们金字塔的level数。根据经验,我们将其设置为1e -3。

在提出的LapSRN中,每个 level s都有它的损失函数和相应的地面真值图像ys。这种multi-loss结构类似于分类【21】和边缘检测【34中的深度监测网的。然而,在【21、34】中用于监督中间层的标签在整个网络中是相同的。在我们的模型中,我们在相应的层中使用不同尺度的HR图像作为监督。深度监督指导网络训练来预测不同层次的子带残留图像,并产生多尺度输出图像。例如,我们的8×模型可以在一个前馈传递中产生2×、4×和8×的超级分辨率的结果。这个属性对于资源敏感的应用程序(resource-aware applications)特别有用,例如,移动设备或网络应用程序。

3.3. Implementation and training details

在提出的LapSRN中,每个卷积层由64个过滤器组成,大小为3×3。我们使用He等人【13】的方法初始化卷积滤波器。转置卷积滤波器的大小是4× 4,权重是从一个双线性滤波器(a bilinear filter)中初始化的。所有的卷积和转置卷积层(除了重建层)都伴随着一个 leaky rectified linear unitLReLUs),斜率为 -0.2。在应用卷积之前,我们在边界上补0,以保持所有特征图的大小与每个层次的输入相同。卷积滤波器具有小的空间支持 small spatial supports3×3),但是,我们可以达到高的非线性,并用深度结构增加接受域(receptive fields)的大小。

我们使用来自Yang 等【38】的91张图片和伯克利的分割数据集( Berkeley Segmentation Dataset)【1】的200张图片作为我们的训练数据。17、26】中也使用的同样训练数据集在每个训练( training batch)中,我们随机抽取64个大小为128×128补丁。一个  epoch 有1000次的反向传播迭代。我们以三种方式增加训练数据:(1)缩放( Scaling):随机地下采样比例为[0.5-1.0]。(2)旋转( Rotation):随机旋转图像90°,180°,或270°。(3)翻转(Flipping):水平或垂直翻转图像 with a probability of 0.5。按照现有方法【7、17】的协议,我们使用双三次下采样生成LR训练补丁。我们用 MatConvNet toolbox [31]来训练我们的模型。我们把动量参数( momentum parameter)设为0.9,权重衰减到1e -4。所有层的学习率被初始化为1e-5,每50个epochs学习率减少了2个因子。

4. Experiment Results

我们首先分析了所提出的网络不同组成部分的贡献。然后我们将我们的LapSRN与5个基准数据集( benchmark datasets)的最先进的算法进行比较,并演示我们的方法在超解析真实世界的照片(super-resolving real-world photos )和视频上的应用。

4.1. Model analysis

Residual learning.为了演示残差学习的效果,我们删除了图像重建分支( branch),并直接预测了每个层次的HR图像。图2显示了DET14数据for 4× SR中PSNR的收敛曲线(convergence curve),非剩余网络( “non-residual” network蓝色曲线)收敛缓慢( converges slowly)且波动较大( fluctuates significantly.)的。另一方面,提出的LapSRN(红色曲线)在10个epochs内优于SRCNN。

Loss function. 为了验证( validate)Charbonnier损失函数的影响,我们用L2损失函数对所建议的网络进行了训练。我们使用更大的学习速率(1e- 4),因为L2的梯度幅值更小。如图2所示,用L2 loss优化的网络(绿线)需要更多的迭代(iterations)才能在SRCNN中获得类似的性能。在图3(d)中,我们展示了用L2损失训练的网络产生了更多的 ringing artifacts。与此相反,由所提的算法重构的SR图像(图3(e))包含相对清晰和清晰的细节。

Pyramid structure.通过移除金字塔结构(pyramid structure),我们的模型可以变成类似于FSRCNN的网络,但是有 residual learning。我们使和LapSRN相同数量的卷积层,我们训练一个有10个卷积层和一个转置卷积层的网络。表2中的量化结果表明,金字塔结构导致了适度的性能改进 moderate performance improvement(例如,在S ET 5上的0.7 dB和S ET 14上0.4 dB)。

Network depth.我们在每个层次上对模型进行了不同深度的训练,d=3,5,10,15,在表3中展示了性能和速度之间的权衡(tradeoffs)。一般来说,深度网络以增加计算成本为代价,使浅层网络效果更好。我们为2×和4×SR模型选择d=10,以在性能和速度之间取得平衡( strike a balance )。我们发现,我们的LapSRN深度为10的速度比大多数现有的基于cnn的sr算法速度快(见图6)。对于8×模型,我们选择d=5,因为我们使用更多的卷积层没有观察到显著的性能提升。

4.2. Comparisons with the state-of-the-arts

我们将LapSRN与8种最先进的SR算法进行比较: A+ [30], SRCNN [7], FSRCNN [8],SelfExSR [15], RFL [26], SCN [33], VDSR [17] and DRCN [18]。我们用5个数据集进行了广泛的实验: S ET 5 [2], S ET 14 [39], BSDS100 [1], U RBAN 100 [15] and MANGA 109 [23]。在这些数据集中,S ET 5, S ET 14 and BSDS100包含的是自然场景(natural scenes);U RBAN 100中包含具有挑战性的包含不同频率波段的细节城市场景图像; MANGA 109是日本漫画的一个数据集。我们训练LapSRN,直到学习速率降低到1e -6,并且在泰坦X GPU上的训练时间大约是3天。

我们用三种常用的图像质量指标来评估(evaluate)SR图像: PSNR, SSIM [32], and IFC [27]。表4显示了2×、4×和8× SR的定量比较( quantitative comparisons),我们的LapSRN在大多数数据集上比现有方法表现良好(performs favorably。特别地,我们的算法实现了更高的IFC值,IFC 被证明与人类对图像超分辨率[35]的感知密切相关。我们注意到,最好的结果可以通过特定的 scale factors(我们的2×和4×)来实现。当中间的卷积层(intermediate convolutional layers)被训练来最小化相应级别和更高层次的预测误差(prediction errors)时,我们的8×模型的中间预测略稍微( slightly inferior to)没有我们的2×和4×模型效果好。虽然如此,我们的8×模型在2×和4× SR中的其他先进的方法中仍有一定的竞争力。

在图4,我们对比例因子为4的U RBAN 100,BSDS100和MANGA 109展示了视觉比较(visualcomparisons)。我们的方法精确地重新构造了平行直线和网格模式( parallel straight lines and grid pattern),如窗户和老虎的条纹。我们观察到,使用bicubic向上采样进行预处理的方法可以产生明显的artifacts[7、17、26、30、33]。相反,我们的方法通过渐进重构和健壮的损失函数(progressive reconstruction and the robust loss function.)有效地抑制了这些( suppresses such artifacts)。

对于8× SR,我们使用公开的代码重新训练A+、SRCNN、FSRCNN、RFL和VDSR的模型。使用渐进重构方法,Both SelfExSR and SCNmethods可以处理不同的尺度因子。我们在图5中显示了BSDS100和U RBAN 100的 8× SR结果。对于8× SR来说,从bicubic上采样的图像【7、17、30】或使用一步向上的采样【8】来预测HR图像是很有挑战性的。最先进的方法不能很好地解决好结构( super-resolve the fine structures well)。与此相反,LapSRN以相对较快的速度重新构建高质量的HR图像。我们在补充材料中展示了所有被评估的方法所产生的SR图像。

4.3. Execution time

我们使用最先进的方法的原始代码使用相同的机器来进行评估,使用的是 3.4GHz Intel i7 CPU (64G RAM) and NVIDIA Titan X GPU(12G Memory)。因为SRCNN和FSRCNN用于测试的代码是基于CPU实现的,我们使用相同的网络权重在MatConvNet上重建这些模型,来测量他们在GPU上的运行时间。图6显示了在S ET 14上4 ×SR 的运行时间和性能(在PSNR上)之间的权衡(trade-offs),LapSRN的速度比FSRCNN的所有现有方法(除了FSRCNN)都要快。我们在补充材料中所有评估数据集的运行时间进行详细的评估。

4.4. Super-resolving real-world photos

我们展示了一个带有 JPEG compression artifacts的超分辨率历史图像来( super-resolving historical photographs)的应用。在这些情况下,既没有地面实况图像(ground-truth images),也没有下采样的内核( downsampling kernels)。如图7所示,我们的方法可以比最先进的方法重建出更清晰、更准确的图像。

4.5. Super-resolving video sequences

我们在22个视频序列中进行基于帧( frame-based)的SR实验,其空间分辨率为1200×800像素。我们对每一帧进行了8×的采样,然后分别对2×、4×和8×进行了超分辨率帧重建。计算成本依赖于输入图像的大小,因为我们从LR空间中提取特性。相反,SRCNN和VDSR的速度受到输出图像大小的限制。FSRCNN和我们的方法在所有的上采样尺度上都实现了实时性能(超过30帧/秒)。与之相反,在8× SR 下FPS的FPS是8.43,VDSR是1.98。图8可视化了一个代表性框架上的8×SR的结果。

4.6. Limitations

虽然我们可以在很大的范围内获得clean and sharp的HR图像,例如,8×,但它并没有产生任何细微的细节(“hallucinate” fine details)。如图9所示,在8×下采样的LR 影像的建筑物的顶部非常模糊。所有的SR算法都不能恢复精细结构,除了 SelfExSR [15],它明确的(explicitly)检测到3D场景的几何形状,并使用自相似性来构造常规结构(hallucinate the regular structure)。这是由参数SR(parametric SR)方法【7、8、17、18】共享的一个常见限制。网络的另一个限制是相对较大的模型大小。为了减少参数的数量,可以用递归层替换每个层次上的深层卷积层。

5. Conclusions

在这项工作中,我们提出了一个在 Laplacian pyramid framework上的深度卷积网络,用于快速和精确的单图像超级分辨率。我们的模型以粗到细的方式( in a coarse-to-fine manner)逐步预测高频残差。通过将预先定义的双三次插值替换为已学习的转置卷积层,并利用一个 robust loss function来优化网络,LapSRN可以 减轻undesired artifacts ,并降低计算复杂度。对基准数据集( benchmark datasets)的广泛评估表明,在视觉质量和运行时间方面,该模型相对最先进的SR算法具有良好的性能。

Acknowledgments & References

 

 

 

此时在回过头看之前的大纲,你会有更深刻的理解:https://blog.csdn.net/royole98/article/details/79617550

 

查看全文
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

相关文章

  1. 数理科学和化学2

    更多文档 http://www.ebook12345.com/ http://123.206.70.198:8888/ 欢迎咨询。 A 《理科文集》 陈传淡编 278页 厦门大学数学科学学院 2010.08 .PDF A 《数理逻辑引论》 朱梧槚,肖奚安编著 243页 大连:大连理工大学出版社 2008.03 .PDF A 《数学教育哲学的理论与实践》 郑…...

    2024/5/3 23:55:04
  2. 部分书籍下载整理

    鉴于学习需要,整理一部分在科研学习过程中使用到的一些书籍的PDF版本,特此声明这些资料仅用作学习交流使用,不用于任何商业性质的用途,如有侵权,请及时告知,另本人强烈建议读者购买相关正版书籍。百度云链接及密码:链接:https://pan.baidu.com/s/16D1zAWI_PPZVNul19VOZ…...

    2024/4/17 8:05:52
  3. Activity.managedQuery()

    描述: 获取一个包含指定数据的 Cursor 对象,并由 Activity 来接管这个 Cursor 的生命周期。 首先该函数通过调用 getContentResolver().query(uri, projection, selection, selectionArgs, sortOrder) 获取一个包含指定数据(由 query 方法的参数指定)的 Cursor 对象。 然后…...

    2024/4/27 23:56:24
  4. 比较著名的国外科技网站

    国内优秀苹果应用评测网站http://www.iguor.com (i果儿网)国外科技新闻网站,有很多是博客媒体式网站。博主们评论新科技的文章也很有读者。 博客媒体网站 1.www.ArsTechnica.com 2.www.alleyinsider.com 2.www.Engadget.com 3.www.techcrunch.com 4.www.Gizmodo.com 5.www.To…...

    2024/4/19 15:32:19
  5. 几种常用激活函数的简介

    1. sigmod函数函数公式和图表如下图在sigmod函数中我们可以看到,其输出是在(0,1)这个开区间内,这点很有意思,可以联想到概率,但是严格意义上讲,不要当成概率。sigmod函数曾经是比较流行的,它可以想象成一个神经元的放电率,在中间斜率比较大的地方是神经元的敏感区,在两…...

    2024/4/17 8:05:40
  6. 数学在计算机图形学中的应用

    [译]Mathematics for Computer Graphics Greg Turk, August 1997“学习计算机图形学需要多少的数学?”这是初学者最经常问的问题。答案取决于你想 在计算机图形学领域钻研多深。如果仅仅使用周围唾手可得的图形软件,你不需要知道 多少数学知识。如果想学习计算机图形学的入门…...

    2024/4/18 7:55:43
  7. Hibernate3一级缓存和二级缓存的理解!

    Hiberante3 一级缓存总结 1. Session 级别的缓存,它同session邦定。它的生命周期和session相同。Session消毁,它也同时消毁;管理一级缓存,一级缓存无法取消,用两个方法管理,clear(),evict() 2. 两个session 不能共享一级缓存,因它会伴随sessi…...

    2024/4/17 8:05:34
  8. PyTorch学习笔记(三)——激活函数

    一、什么是 Activation (激活函数)一句话概括激活函数:就是让神经网络可以描述非线性问题的步骤,使神经网络功能变得更强大。如果还不是特别了解, 可以参看莫烦制作的动画短片,浅显易懂的阐述了激励函数的作用。二、Torch 中的激励函数 Torch 中的激励函数有很多,不过我们…...

    2024/4/17 8:04:58
  9. 融入动画技术的交互应用

    融入动画技术的交互应用:2D Stack 背景 一直愁着大作业该做什么,偶然间想起一款玩过的休闲游戏 不知道大家都有没有玩过,这款名为Stack的游戏,如下图:简单来说,这就是一个堆方块的游戏:如果能将下一块方块完美的重叠在上一块上,则方块面积不会减小,否则会被截去,截去…...

    2024/4/17 8:07:04
  10. Hibernate三级缓存浅谈

    什么是缓存? 在内存中开辟空间,将本来存在硬盘中的东西存到内存中,从内存中读取数据hibernate的三级缓存 一级缓存,session级别的缓存 举例:在一个session中,两次load同一个对象,第二次是从缓存中取对象 二级缓存,sessionFactory级别的缓存,可跨session实现 举例…...

    2024/4/18 8:33:36
  11. 183412张科0

    ![在这里插入图片描述](https://img-blog.csdn.net/20181019002505929?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3prMjAwMDAzMTA=/font/5a6L5L2T/fontsize/400/fill/I0JB...

    2024/4/23 21:28:08
  12. Context.managedQuery()和context.getContentResolver()获取Cursor关闭注意事项

    在获取图片缩略图时,获取游标并进行相关的操作。 Cursor cursor = context.getContentResolver().query(MediaStore.Images.Thumbnails.EXTERNAL_CONTENT_URI,THUMBNAIL_STORE_IMAGE,MediaStore.Images.Thumbnails.IMAGE_ID + " = ?",new String[]{id + "&quo…...

    2024/5/4 4:12:29
  13. 三大工作流引擎对比

    1.从《功夫》说起 时下的新新人类看到我,一定会认为在下是个十足的老古董,这不,《功夫》这样的片子我到今年2月底才看。不过看过《功夫》,我想的一定比一般的人多:周星星浪迹江湖,和他胖子大哥出去敲竹杆时,为什么要他大哥胸前画两把斧头?找个假靠山呗!装是斧头帮的…...

    2024/4/4 22:42:03
  14. keras 保存完整模型,加载模型出错Unknown metric function

    起因 自己写了一个f1_score的函数作为metrics中的一项,然后保存了(模型+参数)。load_model(model_path)的时候出了问题。找不到f1_score这个函数。 方案加载模型的时候load_model(self.saved_model, custom_objects={"f1_score ": f1_score }) 加上引用后加,其…...

    2024/4/27 23:31:50
  15. 使用hibernate-release-5.2.10.Final开启二级缓存配置

    使用hibernate-release-5.2.10.Final开启二级缓存配置首先要导入所需要的jar包和配置文件分别为hibernate-release-5.2.10.Final包中的required文件夹中的所有jar包和optional文件夹中ehcache文件夹的所有jar包和project文件夹中etc文件夹中的ehcache.xml配置文件和hibernate.c…...

    2024/4/17 8:06:34
  16. 一种Mobile UI及应用系统的构架与设计

    前言 我觉得手机的发展可以和服装的演变进行类比。一开始,服装追求遮羞保暖,手机追求通话质量(俗称信号好)。慢慢的,服装变成了时尚的代名词,保暖虽然是服装的essential的功能,但服装更重要的卖点变成了fashion。同样手机成了娱乐工具,通话是必备的功能,但如果缺乏了娱…...

    2024/4/17 8:06:52
  17. python画激活函数图像

    导入必要的库import math import matplotlib.pyplot as plt import numpy as np import matplotlib as mpl mpl.rcParams[axes.unicode_minus] = False绘制softmax函数图像fig = plt.figure(figsize=(6,4)) ax = fig.add_subplot(111) x = np.linspace(-10,10) y = sigmoid(x)a…...

    2024/4/17 8:07:10
  18. Android API:Activity.managedQuery()

    转自http://www.cnblogs.com/hibraincol/archive/2010/09/27/1837162.html...

    2024/4/18 14:54:05
  19. 推荐 | 掌握这12条经验,对理解机器学习至关重要!(可下载PDF)

    华盛顿大学 Pedro Domingos 教授的“A Few Useful Things to Know about Machine Learning”这篇论文总结了机器学习研究者和从业者的 12 个宝贵经验,包括需要避免的陷阱、需要关注的重点问题、常见问题的答案。希望这些经验对机器学习爱好者有一些帮助。下载方式方式一文末点…...

    2024/4/17 8:07:10
  20. hibernate缓存机制详细分析

    在本篇随笔里将会分析一下hibernate的缓存机制,包括一级缓存(session级别)、二级缓存(sessionFactory级别)以及查询缓存,当然还要讨论下我们的N+1的问题。随笔虽长,但我相信看完的朋友绝对能对hibernate的 N+1问题以及缓存有更深的了解。一、N+1问题首先我们来探讨一下N+1的…...

    2024/4/20 14:38:22

最新文章

  1. 关于Clion开发stm32printf重定向问题简单解决问题方法

    title: 关于Clion开发stm32printf重定向问题简单解决问题方法 tags: STM32Clion 参考来源1 这是另一种方法 在printf 重定向的基础上加上 一句 setbuf(stdout,NULL); 参考来源2 自己写的笔记啦...

    2024/5/4 10:28:54
  2. 梯度消失和梯度爆炸的一些处理方法

    在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言,在此感激不尽。 权重和梯度的更新公式如下: w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...

    2024/3/20 10:50:27
  3. 前端 js 经典:字符编码详解

    前言:计算机只能识别二进制,开发语言中数据类型还有数字,字母,中文,特殊符号等,都需要转化成二进制编码才能让技术机识别。 一. 编码方式 ACSLL、Unicode、utf-8、URL 编码、base64 等。 1. ACSLL 对英语…...

    2024/5/2 2:42:44
  4. ChatGPT 赚钱初学者指南(上)

    原文:The Beginner’s Guide to Earning Money Online with ChatGPT 译者:飞龙 协议:CC BY-NC-SA 4.0 第一章:理解基础知识 什么是 ChatGPT? 在人工智能与人类对话相遇的数字织锦中,ChatGPT 作为一个突出…...

    2024/5/3 4:17:57
  5. 【外汇早评】美通胀数据走低,美元调整

    原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...

    2024/5/1 17:30:59
  6. 【原油贵金属周评】原油多头拥挤,价格调整

    原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...

    2024/5/2 16:16:39
  7. 【外汇周评】靓丽非农不及疲软通胀影响

    原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...

    2024/4/29 2:29:43
  8. 【原油贵金属早评】库存继续增加,油价收跌

    原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...

    2024/5/3 23:10:03
  9. 【外汇早评】日本央行会议纪要不改日元强势

    原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...

    2024/4/27 17:58:04
  10. 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响

    原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...

    2024/4/27 14:22:49
  11. 【外汇早评】美欲与伊朗重谈协议

    原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...

    2024/4/28 1:28:33
  12. 【原油贵金属早评】波动率飙升,市场情绪动荡

    原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...

    2024/4/30 9:43:09
  13. 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试

    原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...

    2024/4/27 17:59:30
  14. 【原油贵金属早评】市场情绪继续恶化,黄金上破

    原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...

    2024/5/2 15:04:34
  15. 【外汇早评】美伊僵持,风险情绪继续升温

    原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...

    2024/4/28 1:34:08
  16. 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势

    原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...

    2024/4/26 19:03:37
  17. 氧生福地 玩美北湖(上)——为时光守候两千年

    原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...

    2024/4/29 20:46:55
  18. 氧生福地 玩美北湖(中)——永春梯田里的美与鲜

    原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...

    2024/4/30 22:21:04
  19. 氧生福地 玩美北湖(下)——奔跑吧骚年!

    原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...

    2024/5/1 4:32:01
  20. 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!

    原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...

    2024/5/4 2:59:34
  21. 「发现」铁皮石斛仙草之神奇功效用于医用面膜

    原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...

    2024/4/28 5:48:52
  22. 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者

    原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...

    2024/4/30 9:42:22
  23. 广州械字号面膜生产厂家OEM/ODM4项须知!

    原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...

    2024/5/2 9:07:46
  24. 械字号医用眼膜缓解用眼过度到底有无作用?

    原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...

    2024/4/30 9:42:49
  25. 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...

    解析如下:1、长按电脑电源键直至关机,然后再按一次电源健重启电脑,按F8健进入安全模式2、安全模式下进入Windows系统桌面后,按住“winR”打开运行窗口,输入“services.msc”打开服务设置3、在服务界面,选中…...

    2022/11/19 21:17:18
  26. 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。

    %读入6幅图像(每一幅图像的大小是564*564) f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...

    2022/11/19 21:17:16
  27. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...

    win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面,在等待界面中我们需要等待操作结束才能关机,虽然这比较麻烦,但是对系统进行配置和升级…...

    2022/11/19 21:17:15
  28. 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...

    有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows,请勿关闭计算机”的提示,要过很久才能进入系统,有的用户甚至几个小时也无法进入,下面就教大家这个问题的解决方法。第一种方法:我们首先在左下角的“开始…...

    2022/11/19 21:17:14
  29. win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...

    置信有很多用户都跟小编一样遇到过这样的问题,电脑时发现开机屏幕显现“正在配置Windows Update,请勿关机”(如下图所示),而且还需求等大约5分钟才干进入系统。这是怎样回事呢?一切都是正常操作的,为什么开时机呈现“正…...

    2022/11/19 21:17:13
  30. 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...

    Win7系统开机启动时总是出现“配置Windows请勿关机”的提示,没过几秒后电脑自动重启,每次开机都这样无法进入系统,此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一:开机按下F8,在出现的Windows高级启动选…...

    2022/11/19 21:17:12
  31. 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...

    有不少windows10系统用户反映说碰到这样一个情况,就是电脑提示正在准备windows请勿关闭计算机,碰到这样的问题该怎么解决呢,现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法:1、2、依次…...

    2022/11/19 21:17:11
  32. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...

    今天和大家分享一下win7系统重装了Win7旗舰版系统后,每次关机的时候桌面上都会显示一个“配置Windows Update的界面,提示请勿关闭计算机”,每次停留好几分钟才能正常关机,导致什么情况引起的呢?出现配置Windows Update…...

    2022/11/19 21:17:10
  33. 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...

    只能是等着,别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚,只能是考虑备份数据后重装系统了。解决来方案一:管理员运行cmd:net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...

    2022/11/19 21:17:09
  34. 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?

    原标题:电脑提示“配置Windows Update请勿关闭计算机”怎么办?win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢?一般的方…...

    2022/11/19 21:17:08
  35. 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...

    关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!关机提示 windows7 正在配…...

    2022/11/19 21:17:05
  36. 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...

    钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...

    2022/11/19 21:17:05
  37. 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...

    前几天班里有位学生电脑(windows 7系统)出问题了,具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面,长时间没反应,无法进入系统。这个问题原来帮其他同学也解决过,网上搜了不少资料&#x…...

    2022/11/19 21:17:04
  38. 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...

    本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法,并在最后教给你1种保护系统安全的好方法,一起来看看!电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中,添加了1个新功能在“磁…...

    2022/11/19 21:17:03
  39. 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...

    许多用户在长期不使用电脑的时候,开启电脑发现电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机。。.这要怎么办呢?下面小编就带着大家一起看看吧!如果能够正常进入系统,建议您暂时移…...

    2022/11/19 21:17:02
  40. 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...

    配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!配置windows update失败 还原更改 请勿关闭计算机&#x…...

    2022/11/19 21:17:01
  41. 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...

    不知道大家有没有遇到过这样的一个问题,就是我们的win7系统在关机的时候,总是喜欢显示“准备配置windows,请勿关机”这样的一个页面,没有什么大碍,但是如果一直等着的话就要两个小时甚至更久都关不了机,非常…...

    2022/11/19 21:17:00
  42. 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...

    当电脑出现正在准备配置windows请勿关闭计算机时,一般是您正对windows进行升级,但是这个要是长时间没有反应,我们不能再傻等下去了。可能是电脑出了别的问题了,来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...

    2022/11/19 21:16:59
  43. 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...

    我们使用电脑的过程中有时会遇到这种情况,当我们打开电脑之后,发现一直停留在一个界面:“配置Windows Update失败,还原更改请勿关闭计算机”,等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢&#xff0…...

    2022/11/19 21:16:58
  44. 如何在iPhone上关闭“请勿打扰”

    Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...

    2022/11/19 21:16:57