Pytorch: 优化器、损失函数与深度神经网络框架

Copyright: Jingmin Wei, Pattern Recognition and Intelligent System, School of Artificial and Intelligence, Huazhong University of Science and Technology


文章目录

      • Pytorch: 优化器、损失函数与深度神经网络框架
    • @[toc]
        • 常用优化器
          • 常用优化器
          • Adam 优化器
        • 损失函数
          • 均方误差损失
          • 交叉熵损失
        • 防止过拟合
        • 网络参数初始化
          • 针对某一层的权重进行初始化
          • 针对一个网络的权重初始化方法

常用优化器

随机梯度下降法(SGD)是机器学习中,模型能够进行学习并推理的基本算法,相关原理和代码请自行查阅资料。

随机下降的缺点在于,很难确定一个合适的学习率,且容易收敛到局部梯度最小。

解决方案有两种,引入动量的思想动态更新参数,引入动态学习率变化。

引入动量的思想动态更新参数,即综合考虑参数更新的方向和当前batch计算的梯度,综合算出更新梯度的大小和方向。增加学习参数的稳定性同时,更快的学习到收敛的参数。
mt=μ×mt−1+gtΔθt=η×mtm_t=\mu\times m_{t-1}+g_t\\ \Delta{\theta_t}=\eta\times m_t mt=μ×mt1+gtΔθt=η×mt
梯度下降方向和上次相同时,梯度会变大,否则梯度会变小。中后期学习中,梯度会在局部最优附近震荡( gt=0g_t=0gt=0 ),因此有一定可能跳出局部最优。

常用的动量有 Nesterov 动量。

引入动态学习率变化,即在训练开始时,参数与最优值距离较远,因此要使用较大的学习率,经过几轮训练后,则减小学习率。因此开发了诸如Adadelta,RMSProp及Adam等自适应学习率算法。

比如说 Adam,利用梯度的一阶矩和二阶矩动态地估计每一个参数的学习率,参数的更新更加的平稳,模型的收敛速度更快。

常用优化器

在optim模块,提供多种深度学习的优化算法。

import torch
from torch import nn
from torch import optim
import matplotlib.pyplot as plt
torch.optim.Adadelta()
torch.optim.Adagrad()
torch.optim.Adam()
torch.optim.ASGD()    # 平均随机梯度下降
torch.optim.LBFCS()
torch.optim.RMSprop()
torch.optim.Rprop()    # 弹性反向传播  
torch.optim.SGD()     # 随机梯度下降
Adam 优化器

AdamAdamAdam 优化器为例,我们的模型在训练时使用强大而通用的 AdamAdamAdam 优化算法, AdamAdamAdam 优化器为目前深度学习中普遍使用且效果均不错的“万金油”优化器.其主要原理是,对梯度的一阶矩估计( FirstMomentEstimationFirst\ Moment\ EstimationFirst Moment Estimation ,即梯度的均值)和二阶矩估计( SecondMomentEstimationSecond\ Moment\ EstimationSecond Moment Estimation ,即梯度的未中心化的方差)进行综合考虑,计算出每一次迭代更新步长。

AdamAdamAdam 算法在 RMSPropRMSPropRMSProp 算法基础上对小批量随机梯度也做了指数加权移动平均 AdamAdamAdam 算法可以看做是 RMSPropRMSPropRMSProp 算法与动量法的结合。

AdamAdamAdam​ 算法使用了动量变量 vt\boldsymbol{v}_tvt​ 和 RMSPropRMSPropRMSProp​ 算法中小批量随机梯度按元素平方的指数加权移动平均变量 st\boldsymbol{s}_tst​,并在时间步 000​ 将它们中每个元素初始化为 000​ 。

给定超参数 0≤β1<10 \leq \beta_1<10β1<1​ (算法作者建议设为 0.90.90.9​ ),时间步 ttt​ 的动量变量 vt\boldsymbol{v}_tvt​ 即小批量随机梯度 gt\boldsymbol{g}_tgt​ 的指数加权移动平均:
vt←β1vt−1+(1−β1)gt.\boldsymbol{v}_t \leftarrow \beta_1 \boldsymbol{v}_{t-1} + (1 - \beta_1) \boldsymbol{g}_t. vtβ1vt1+(1β1)gt.
RMSPropRMSPropRMSProp​ 算法中一样,给定超参数 0≤β2<10 \leq \beta_2 < 10β2<1​ (算法作者建议设为 0.9990.9990.999 ), 将小批量随机梯度按元素平方后的项 gt⊙gt\boldsymbol{g}_t \odot \boldsymbol{g}_tgtgt 做指数加权移动平均得到 st\boldsymbol{s}_tst​ :
st←β2st−1+(1−β2)gt⊙gt.\boldsymbol{s}_t \leftarrow \beta_2 \boldsymbol{s}_{t-1} + (1 - \beta_2) \boldsymbol{g}_t \odot \boldsymbol{g}_t. stβ2st1+(1β2)gtgt.
由于我们将 v0\boldsymbol{v}_0v0s0\boldsymbol{s}_0s0 中的元素都初始化为 000 , 在时间步 ttt 我们得到 vt=(1−β1)∑i=1tβ1t−igi\boldsymbol{v}_t = (1-\beta_1) \sum_{i=1}^t \beta_1^{t-i} \boldsymbol{g}_ivt=(1β1)i=1tβ1tigi 。将过去各时间步小批量随机梯度的权值相加,得到 (1−β1)∑i=1tβ1t−i=1−β1t(1-\beta_1) \sum_{i=1}^t \beta_1^{t-i} = 1 - \beta_1^t(1β1)i=1tβ1ti=1β1t 。需要注意的是,当 ttt 较小时,过去各时间步小批量随机梯度权值之和会较小。例如,当 β1=0.9\beta_1 = 0.9β1=0.9 时,v1=0.1g1\boldsymbol{v}_1 = 0.1\boldsymbol{g}_1v1=0.1g1 。为了消除这样的影响,对于任意时间步 ttt ,我们可以将 vt\boldsymbol{v}_tvt 再除以 1−β1t1 - \beta_1^t1β1t ,从而使过去各时间步小批量随机梯度权值之和为 111 。这也叫作偏差修正。在 AdamAdamAdam 算法中,我们对变量 vt\boldsymbol{v}_tvtst\boldsymbol{s}_tst 均作偏差修正:
v^t←vt1−β1t\hat{\boldsymbol{v}}_t \leftarrow \frac{\boldsymbol{v}_t}{1 - \beta_1^t} v^t1β1tvt

s^t←st1−β2t.\hat{\boldsymbol{s}}_t \leftarrow \frac{\boldsymbol{s}_t}{1 - \beta_2^t}. s^t1β2tst.

接下来, AdamAdamAdam 算法使用以上偏差修正后的变量 s^t←st1−β2t.\hat{\boldsymbol{s}}_t \leftarrow \frac{\boldsymbol{s}_t}{1 - \beta_2^t}.s^t1β2tst.s^t\hat{\boldsymbol{s}}_ts^t ,将模型参数中每个元素的学习率通过按元素运算重新调整:
gt′←ηv^ts^t+ϵ,\boldsymbol{g}_t' \leftarrow \frac{\eta \hat{\boldsymbol{v}}_t}{\sqrt{\hat{\boldsymbol{s}}_t} + \epsilon}, gts^t+ϵηv^t,
其中 η\etaη 是学习率, ϵ\epsilonϵ 是为了维持数值稳定性而添加的常数,如 10−810^{-8}108 。和 AdaGradAdaGradAdaGrad 算法、RMSPropRMSPropRMSProp 算法以及 AdaDeltaAdaDeltaAdaDelta 算法一样,目标函数自变量中每个元素都分别拥有自己的学习率。最后,使用 gt′\boldsymbol{g}_t'gt 迭代自变量:
xt←xt−1−gt′.\boldsymbol{x}_t \leftarrow \boldsymbol{x}_{t-1} - \boldsymbol{g}_t'. xtxt1gt.

torch.optim.Adam(params, lr=1e-3, betas=(0.9, 0.999), eps=1e-8,weight_decay=0, amsgrad=False)
params,    # 待优化参数的iterable或定义了参数组的dict,通常为model.parameters()
lr=1e-3,     # 算法学习率,默认为0.001 
betas=(0.9, 0.999),    # 用于计算梯度以及梯度平方的运行平均值
eps=1e-8,    # 为了增加数值计算的稳定性而加到分母里的项
weight_decay=0,    # 权重衰减(L2惩罚)
amsgrad=False

建立测试网络,演示优化器的使用方式

# 建立一个测试网络
class TestNet(nn.Module):def __init__(self):super(TestNet, self).__init__()    # 对继承自父类的属性进行初始化# 定义隐含层self.hidden = nn.Sequential(nn.Linear(13, 10),nn.ReLU(),)# 定义预测回归层self.regression = nn.Linear(10, 1)def forward(self, x):# 定义前向传播路径x = self.hidden(x)output = self.regression(x)return output
testnet = TestNet()    # 构建对象
# 使用迭代器(优化器),为不同层定义统一的学习率
optimizer = optim.Adam(testnet.parameters(), lr = 0.001)
# 使用迭代器(优化器),为不同层定义不同的学习率
optimizer = optim.Adam([{'params': testnet.hidden.parameters(), 'lr': 0.0001},{'params': testnet.regression.parameters(), 'lr': 0.01}])
# 目标函数优化框架(非可正确运行实例)# 定义损失函数为交叉熵(也可以定义其他的损失函数)
loss_function = nn.CrossEntropyLoss()  for input, target in dataset:optimizer.zero_grad()    # 梯度清零output = TestNet(input)    # 计算预测值loss = loss_function(output, target)    # 计算梯度损失loss.backward()    # 损失反向传播optimizer.step()    # 更新梯度参数

optim.lr_scheduler提供了几种优化器学习率的调整方式

last_epoch, # 用来设置何时开始调整学习率,=-1表示学习率设置为初始值
step_size, # 学习率会每经过step_size后调整为原来的gamma倍
milestones, # 使用一个列表来制定需要调整学习率的epoch数值, 调整为原来的gamma倍
T_max, # T_max个epoch后重新设置学习率
eta_min, # 每个周期的最小学习率,
# 具体调整算法见教材optim.lr_scheduler.LambdaLR(optimizer, lr_lambda, last_epoch=-1)
optim.lr_scheduler.StepLR(optimizer, step_size, gamma=0.1, last_epoch=-1)
optim.lr_scheduler.MultiStepLR(optimizer, milestones, gamma=0.1, last_epoch=-1)
optim.lr_scheduler.ExponentialLR(optimizer, gamma, last_epoch=-1)
optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max, eta_min=0, last_epoch=-1)
# 设置学习率调整方式
scheduler = optim.lr_scheduler.LambdaLR()for epoch in range(100):train(...)validate(...)scheduler.step()    # 更新学习率

损失函数

用来表示某次迭代中,预测值与实际验证集之间的差距程度。

最优化问题的目标就是将损失函数最小化。

nn模块提供了多种深度学习损失函数

nn.L1Loss(), # 平均绝对值误差损失,用于回归问题
nn.MSELoss(), # 均方误差损失,用于回归问题
nn.CrossEntropyLoss(), # 交叉熵损失,用于多分类
nn.NLLLoss(), # 负对数似然函数损失,用于多分类
nn.NLLLoss2d(), # 图片负对数似然函数损失,用于图像分割
nn.KLDivLoss(), # KL散度损失,用于回归问题
nn.BCELoss(), # 二分类交叉熵损失,用于二分类
nn.MarginRankingLoss(), # 评价相似度的损失
nn.MultiLabelMarginLoss(), # 多标签分类的损失
nn.SmoothL1Loss(), # 平滑的L1损失,用于回归问题
nn.SoftMarginLoss(), # 多标签二分类问题的损失

以交叉熵和均方误差为例

均方误差损失

loss(x,y)=1/N⋅(xi−yi)2loss(x, y)=1/N \cdot (x_i - y_i)^2loss(x,y)=1/N(xiyi)2

nn.MSELoss(size_average=None, reduce=None, reduction='mean')
size_average=None, # 计算的损失为每个batch的均值,否则为每个batch的和
reduce=None, # 计算的损失会根据size_average设定,试计算每个batch的均值或和
reduction='mean', # 'none', 'mean', 'sum' 来判断损失的计算方式,默认是均值
交叉熵损失

它将LogSsoftMax和NLLLoss集成到一个类中,一般用于多分配问题

nn.CrossEntropyLoss(weight=None, size_average=None, ignore_index=-100,reduce=None, reduction='mean')
weight=None, # 是1维张量,包含n个元素,代表n类的权重,在训练样本不均衡时非常有用
ignore_index=-100, # 指定被忽略且对输入梯度没有贡献的目标值

当weight = None

loss(x,class)=−log⁡exp⁡(x[class])∑jx[j]=−x[class]+log⁡(∑jexp⁡(x[j]))loss(x, class)=-\log\frac{\exp(x[class])}{\sum_j x[j]} =-x[class]+\log\bigl(\sum_j \exp(x[j])\bigr) loss(x,class)=logjx[j]exp(x[class])=x[class]+log(jexp(x[j]))

当weight被指定时

loss(x,class)=weight[class]×(−x[class]+log(∑jexp⁡(x[j])))loss(x, class) = weight[class]\times\Bigl(-x[class]+log\bigl(\sum_j \exp(x[j])\bigr)\Bigr) loss(x,class)=weight[class]×(x[class]+log(jexp(x[j])))

防止过拟合

过拟合指,在训练集上分类或预测过匹配,测试集上结果不理想。

实质上是,模型的偏差很小,但方差很大

常用防止过拟合方法有:

  1. 增加数据量。
  2. 合理的数据切分。使用合理的比例切分训练集,验证集和测试集。
  3. 正则化方法。即在损失函数上添加对训练参数的惩罚范数,对需要训练的参数进行约束。常用的参数有 l1l_1l1l2l_2l2 范数。
  4. Dropout。引入Dropout层,随机丢掉一些神经元,即让某几个神经元,以一定的概率p停止工作,减轻网络的过拟合现象。

网络参数初始化

为了得到高精度的训练结果,不使用默认参数初始化,而是使用一些特定的参数初始化方法。

常用初始化方法见教材,下面是参数初始化实例。

针对某一层的权重进行初始化

以一个卷积层为例

# 定义一个从3个特征映射到16个特征的卷积层
conv1 = nn.Conv2d(3, 16, 3)
# 使用标准正态分布初始化权重
torch.manual_seed(12)    # 随机数初始化种子
# 用生成的随机数代替张量conv1.weight的原始数据
nn.init.normal_(conv1.weight, mean=0, std=1)    
plt.figure(figsize=(8, 6))
plt.hist(conv1.weight.data.numpy().reshape((-1, 1)), bins=30)
plt.show()


[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-KMYO6y4n-1643884575825)(output_32_0.png)]

# 使用指定值初始化偏置
# 让conv1的偏置参数中的每个元素,重新初始化为0.1
nn.init.constant_(conv1.bias, val=0.1)
Parameter containing:
tensor([0.1000, 0.1000, 0.1000, 0.1000, 0.1000, 0.1000, 0.1000, 0.1000, 0.1000,0.1000, 0.1000, 0.1000, 0.1000, 0.1000, 0.1000, 0.1000],requires_grad=True)
针对一个网络的权重初始化方法

对多层网络每个层的参数进行初始化

# 建立测试网络
class TestNet(nn.Module):def __init__(self):super(TestNet, self).__init__()self.conv1 = nn.Conv2d(in_channels=3, out_channels=16, kernel_size=3)self.hidden = nn.Sequential(nn.Linear(1600, 100),nn.ReLU(),nn.Linear(100, 50),nn.ReLU())self.cla = nn.Linear(50, 10)def forward(self, x):x = self.conv1(x)x = x.view(x.shape[0], -1)x = self.hidden(x)output = self.cla(x)return output
# 输出网络结构
from torchsummary import summary
testnet = TestNet()
summary(testnet, input_size=(3, 12, 12))
----------------------------------------------------------------Layer (type)               Output Shape         Param #
================================================================Conv2d-1           [-1, 16, 10, 10]             448Linear-2                  [-1, 100]         160,100ReLU-3                  [-1, 100]               0Linear-4                   [-1, 50]           5,050ReLU-5                   [-1, 50]               0Linear-6                   [-1, 10]             510
================================================================
Total params: 166,108
Trainable params: 166,108
Non-trainable params: 0
----------------------------------------------------------------
Input size (MB): 0.00
Forward/backward pass size (MB): 0.01
Params size (MB): 0.63
Estimated Total Size (MB): 0.65
----------------------------------------------------------------
print(testnet)
TestNet((conv1): Conv2d(3, 16, kernel_size=(3, 3), stride=(1, 1))(hidden): Sequential((0): Linear(in_features=1600, out_features=100, bias=True)(1): ReLU()(2): Linear(in_features=100, out_features=50, bias=True)(3): ReLU())(cla): Linear(in_features=50, out_features=10, bias=True)
)

为什么上述 summarysummarysummary 写法是这样的呢?可以适当复习一下 torch.nn 章节。

首先我们设置了 conv1的参数:in_channels=3,out_channels=16,kernel_size=3conv1的参数:in\_channels=3, out\_channels=16, kernel\_size=3conv1:in_channels=3,out_channels=16,kernel_size=3

对应到参数计算,即 D1=3,D2=16D_1=3, D_2=16D1=3,D2=16,滤波器大小为 F×F=3×3F\times F=3\times3F×F=3×3。默认构造参数 stride=1,padding=0,即S=1,P=0stride=1, padding=0, 即S=1, P=0stride=1,padding=0,S=1,P=0

summarysummarysummary 方法中,input_size=D1×W1×H1input\_size = D_1\times\ W_1\times H_1input_size=D1× W1×H1。即卷积层输入数据的大小为 W1×H1×D1=12×12×3W_1\times H_1\times D_1 = 12\times12\times3W1×H1×D1=12×12×3

这些是已知量。


根据卷积层计算方法:
W2=W1−F+2PS+1,H2=H1−F+2PS+1,D2=FW_2=\frac{W_1-F+2P}{S}+1,\ H_2=\frac{H_1-F+2P}{S}+1, D_2=F W2=SW1F+2P+1, H2=SH1F+2P+1,D2=F
因此,W2=W1−2,H2=H1−2W_2=W_1-2,\ H_2=H_1-2W2=W12, H2=H12

输出 W2×H2×D2=(W1−2)×(H1−2)×F=10×10×16W_2\times H_2\times D_2=(W_1-2)\times(H_1-2)\times F=10\times10\times16W2×H2×D2=(W12)×(H12)×F=10×10×16,总共参数量为 160016001600

然后我们开始设置全连接层 linear2的参数:in_channels=?,out_channels=?linear2的参数:in\_channels=?, out\_channels=?linear2:in_channels=?,out_channels=?

前一层的输出等于后一层的输入,in_channels=1600in\_channels=1600in_channels=1600out_channelsout\_channelsout_channels 就根据需要输出类别的实际情况来确定了。

后面的全连接层类似。


以上都是题外话,然后我们来为上述网络的每一层定义进行权重初始化函数

def init_weights(m):# 如果是卷积层if type(m) == nn.Conv2d:torch.nn.init.normal_(m.weight, mean=0, std=0.5)    # 正态分布# 如果是全连接层if type(m) == nn.Linear:torch.nn.init.uniform_(m.weight, a=-0.1, b=0.1)    # -0.1-0.1均匀分布m.bias.data.fill_(0.01)    # 设置偏置bias为0.01
# 使用网络的apllu方法进行权重初始化
torch.manual_seed(13)    # 随机数初始化种子
testnet.apply(init_weights)
TestNet((conv1): Conv2d(3, 16, kernel_size=(3, 3), stride=(1, 1))(hidden): Sequential((0): Linear(in_features=1600, out_features=100, bias=True)(1): ReLU()(2): Linear(in_features=100, out_features=50, bias=True)(3): ReLU())(cla): Linear(in_features=50, out_features=10, bias=True)
)
查看全文
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

相关文章

  1. 单例设计模式【学习笔记】

    单例模式 饿汉式 import java.io.Serializable;/**在这里插入代码片* Innertwo* */ public class two implements Serializable{private two(){//防止反射 破环单例if(INSTANCE ! null){throw new RuntimeException("error");}}private static final two INSTANCE …...

    2024/4/22 3:26:20
  2. Xml—dom4j解析以及写入xml文档时的乱码问题,Android开发者跳槽面试

    public class Dom4j { private File file new File(“src/book.xml”); //遍历xml文档 Test public void testList() throws Exception{ SAXReader reader new SAXReader(); Document document reader.read(file); Element root document.getRootElement(); list(r…...

    2024/5/8 11:55:46
  3. JavaSE-循环语句(2)

    三、break的使用 /* 生成0-100随机数,直到生成88为止,停止循环! break:完全跳出循环 注意: 如果是多层循环,break只能跳出它所在那层循环 */ public class BreakDemo{public static void main(String[] args)} //定义一个计数器 /*int count = 0; while(true){in…...

    2024/4/13 17:51:39
  4. 为什么写博客、如何写?

    一、为什么写博客 1.博客是程序员最好的名片。&#xff08;面试加分&#xff09; 2.检验、总结自己的学习成果&#xff0c;对技术更加理解和深刻。&#xff08;写的过程 复现&#xff09; &#xff08;1&#xff09;能将自己所学用语言文字清晰地讲给别人听&#xff0c;才证…...

    2024/4/20 3:29:33
  5. 数据结构07:选择排序

    选择排序&#xff1a;每次从待排序列中找出一个最小值放在已排序序列的末尾位置。改进&#xff1a;每次从待排序列中找出一个最小值和一个最大值&#xff0c;最小值放在已排序序列末尾位置&#xff0c;最大值放在待排序序列末尾位置&#xff0c;并将这个位置指定为已排序位置 …...

    2024/5/8 15:29:27
  6. Vue3虚拟DOM介绍

    published: true date: 2022-2-3 tags: ‘前端框架 Vue’ 虚拟DOM 本章将从零介绍Vue中的虚拟DOM&#xff0c;从渲染函数带到mount函数以及最后的patch函数也都有具体的代码实现。 致谢Vue Mastery非常好的课程&#xff0c;可以转载&#xff0c;但请声明源链接&#xff1a;文章…...

    2024/4/13 17:51:49
  7. 搜索之广搜

    P1162 填涂颜色 在方阵外围加一圈零&#xff0c;方便搜索 bfs代码: #include<bits/stdc.h> using namespace std; int mapp[32][32] {0}, n; bool visit[32][32] {0}; int dis_x[4] {0, 0, 1, -1}; int dis_y[4] {1, -1, 0, 0}; struct Node{int x; int y; };void…...

    2024/5/8 3:02:33
  8. 三天学会网络爬虫之Day03

    三天学会网络爬虫之Day03第一章 课程计划第二章 案例扩展2.1.定时任务。2.1.1.Cron表达式2.1.2.Cron测试2.2.网页去重2.2.1.去重方案介绍2.2.2. SimHash2.2.2.1.流程介绍2.2.2.2.签名距离计算2.2.2.3.导入simhash 工程2.3.代理的使思2.3.1.代理服务器2.3.1.使用代理第三章 Elas…...

    2024/4/19 20:03:18
  9. 《Web安全之机器学习入门》笔记:第十七章 17.4 CNN识别垃圾邮件

    本小节通过实例讲述CNN识别垃圾邮件的方法。 1、数据集 将load_one_file函数中open的参数增加encodingutf-8&#xff0c;如下所示&#xff1a; def load_one_file(filename):x""with open(filename, encodingutf-8) as f:print(filename)for line in f:lineline.s…...

    2024/4/18 11:07:37
  10. 《Web安全之机器学习入门》笔记:第十五章 15.4 TensorFlow识别验证码(一)

    本小节目标是通过实例展示如何使用tensorflow识别验证码&#xff08;MNIST图像&#xff09;。 1、数据集 def load_data():with gzip.open(../data/MNIST/mnist.pkl.gz) as fp:training_data, valid_data, test_data pickle.load(fp)return training_data, valid_data, test…...

    2024/4/13 17:52:39
  11. GUI 图形用户界面编程(四)-Button组件

    ✨✨✨ 感谢优秀的你打开了小白的文章 “希望在看文章的你今天又进步了一点点&#xff0c;离美好生活更近一步&#xff01;”&#x1f308; &#x1f4e3;&#x1f4e3;&#x1f4e3; 本台预告&#xff1a;随着图像处理和人脸识别系列文章的结束&#xff0c;在未来的若干天内将…...

    2024/4/13 17:52:34
  12. Windows安装detector2最新版(0.6)

    1. 环境&#xff1a; win10 64&#xff0c;anaconda3&#xff0c;python3.8&#xff0c;VS2019 2. conda创建新的环境 conda create -n torch(环境名) python3.8 activate torch 对了&#xff0c;conda添加清华的镜像源头&#xff0c;速度快些 conda config --add channels…...

    2024/4/13 17:52:29
  13. 从零开始学习Spring - SSM整合

    1. SSM整合 1.1 基本步骤 准备数据库和表记录创建web项目编写mybatis在ssm环境中可以单独使用编写spring在ssm环境中可以单独使用spring整合mybatis编写springMVC在ssm环境中可以单独使用spring整合springMVC 1.2 环境搭建 1.2.1 准备数据库表 CREATE TABLE account ( id …...

    2024/4/18 2:52:09
  14. 基于springboot的shiro基本操作

    文章目录Shiro执行逻辑Shiro的组织架构Shiro身份验证演示Realm配置Shiro授权授权方式演示Springboot集成Shiro拦截用户请求认证用户密码加密授权Shiro执行逻辑 Application Code&#xff1a;编写的应用程序Subject&#xff1a; 主体&#xff0c;代表了当前 “用户”&#xff0c…...

    2024/4/13 17:52:29
  15. 实验5-三种基本结构综合应用:7-2 分解质因数 (4.6) (20 分)

    一、题目&#xff1a; 输入一个整数n(2≤n≤10000)&#xff0c;对其分解质因数。 输入格式: 输入正整数n(2≤n≤10000)。 输出格式: 输出整数各分解质因数的乘积 输入样例: 120输出样例: 1202*2*2*3*5二、代码&#xff1a; #include <stdio.h> #include <std…...

    2024/4/13 17:52:19
  16. 机器学习(西瓜书)8、集成学习

    集成学习&#xff08;ensemble learning&#xff09;指的是将多个学习器进行有效地结合&#xff0c;组建一个“学习器委员会”&#xff0c;其中每个学习器担任委员会成员并行使投票表决权&#xff0c;少数服从多数。 8.1 个体与集成 集成学习的基本结构为&#xff1a;先产生一…...

    2024/4/13 17:52:54
  17. electron 安装失败,Electron failed to install correctly

    开发 Electron 项目&#xff0c;总是会发生安装失败或者安装时间太长的问题&#xff0c;下面说下终结解决办法。错误提示一般是如下图这样的&#xff1a; 这是我的错误截图 Error: Electron failed to install correctly, please delete node_modules/electron and try instal…...

    2024/5/3 4:26:28
  18. Vue子父组件通信

    在开发中&#xff0c;我们经常会把一些复用率高的代码&#xff0c;封装成一个组件。但是封装组件里面的数据&#xff0c;不能写死&#xff0c;需要动态传入。但是由于在父组件发起的网络请求&#xff0c;所以需要用到组件之间的通信来传递数据。 父传子 首先在父组件里面注册…...

    2024/4/18 4:19:20
  19. Python 定时发送天气邮件

    纪念一下写给女朋友的定时邮件~ 效果如图 一、获取天气 def getWeather1(city):try:appid os.environ["TIANQI_APPID"]appsecret os.environ["TIANQI_APPSEC"]except KeyError:appid xxxx #www.tianqiapi.com申请的appid&#xff0c;有免费 apiapps…...

    2024/4/20 5:37:21
  20. 网络编程知识

    1、TCP中的三次握手 建立一个TCP连接时&#xff0c;需要客户端和服务端总共发送3个包以确认连接的建立。 &#xff08;1&#xff09;为什么需要三次握手 TCP是面向连接的&#xff0c;所以需要双方都确认连接的建立 第一次握手&#xff1a;客户端请求建立连接 第二次握手&a…...

    2024/5/6 14:46:04

最新文章

  1. 东莞厂家环保水空调的应用场所

    环保水空调&#xff08;也被称为蒸发式冷风机、水冷式环保空调等&#xff09;由于其独特的节能环保特性&#xff0c;适用于多种需要降温和通风的场所。以下是一些常见的应用场所&#xff1a; 工业厂房&#xff1a;工业厂房通常对温度、湿度和空气质量有较高要求。环保水空调不…...

    2024/5/8 20:16:08
  2. 梯度消失和梯度爆炸的一些处理方法

    在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言&#xff0c;在此感激不尽。 权重和梯度的更新公式如下&#xff1a; w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...

    2024/5/7 10:36:02
  3. 阿里云8核32G云服务器租用优惠价格表,包括腾讯云和京东云

    8核32G云服务器租用优惠价格表&#xff0c;云服务器吧yunfuwuqiba.com整理阿里云8核32G服务器、腾讯云8核32G和京东云8C32G云主机配置报价&#xff0c;腾讯云和京东云是轻量应用服务器&#xff0c;阿里云是云服务器ECS&#xff1a; 阿里云8核32G服务器 阿里云8核32G服务器价格…...

    2024/5/8 2:44:58
  4. 腾讯云轻量服务器流量不够用了会怎么样?

    腾讯云轻量应用服务器是限制月流量的&#xff0c;如果当月流量不够用了&#xff0c;流量超额了怎么办&#xff1f;流量超额后&#xff0c;需要另外支付流量费&#xff0c;如果你的腾讯云账号余额&#xff0c;就会自动扣除对应的流量费&#xff0c;如果余额不足&#xff0c;轻量…...

    2024/5/8 8:45:36
  5. 【外汇早评】美通胀数据走低,美元调整

    原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...

    2024/5/8 6:01:22
  6. 【原油贵金属周评】原油多头拥挤,价格调整

    原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...

    2024/5/7 9:45:25
  7. 【外汇周评】靓丽非农不及疲软通胀影响

    原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...

    2024/5/4 23:54:56
  8. 【原油贵金属早评】库存继续增加,油价收跌

    原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...

    2024/5/7 14:25:14
  9. 【外汇早评】日本央行会议纪要不改日元强势

    原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...

    2024/5/4 23:54:56
  10. 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响

    原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...

    2024/5/4 23:55:05
  11. 【外汇早评】美欲与伊朗重谈协议

    原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...

    2024/5/4 23:54:56
  12. 【原油贵金属早评】波动率飙升,市场情绪动荡

    原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...

    2024/5/7 11:36:39
  13. 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试

    原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...

    2024/5/4 23:54:56
  14. 【原油贵金属早评】市场情绪继续恶化,黄金上破

    原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...

    2024/5/6 1:40:42
  15. 【外汇早评】美伊僵持,风险情绪继续升温

    原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...

    2024/5/4 23:54:56
  16. 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势

    原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...

    2024/5/4 23:55:17
  17. 氧生福地 玩美北湖(上)——为时光守候两千年

    原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...

    2024/5/7 9:26:26
  18. 氧生福地 玩美北湖(中)——永春梯田里的美与鲜

    原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...

    2024/5/4 23:54:56
  19. 氧生福地 玩美北湖(下)——奔跑吧骚年!

    原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...

    2024/5/8 19:33:07
  20. 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!

    原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...

    2024/5/5 8:13:33
  21. 「发现」铁皮石斛仙草之神奇功效用于医用面膜

    原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...

    2024/5/4 23:55:16
  22. 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者

    原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...

    2024/5/4 23:54:58
  23. 广州械字号面膜生产厂家OEM/ODM4项须知!

    原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...

    2024/5/6 21:42:42
  24. 械字号医用眼膜缓解用眼过度到底有无作用?

    原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...

    2024/5/4 23:54:56
  25. 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...

    解析如下&#xff1a;1、长按电脑电源键直至关机&#xff0c;然后再按一次电源健重启电脑&#xff0c;按F8健进入安全模式2、安全模式下进入Windows系统桌面后&#xff0c;按住“winR”打开运行窗口&#xff0c;输入“services.msc”打开服务设置3、在服务界面&#xff0c;选中…...

    2022/11/19 21:17:18
  26. 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。

    %读入6幅图像&#xff08;每一幅图像的大小是564*564&#xff09; f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...

    2022/11/19 21:17:16
  27. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...

    win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面&#xff0c;在等待界面中我们需要等待操作结束才能关机&#xff0c;虽然这比较麻烦&#xff0c;但是对系统进行配置和升级…...

    2022/11/19 21:17:15
  28. 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...

    有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows&#xff0c;请勿关闭计算机”的提示&#xff0c;要过很久才能进入系统&#xff0c;有的用户甚至几个小时也无法进入&#xff0c;下面就教大家这个问题的解决方法。第一种方法&#xff1a;我们首先在左下角的“开始…...

    2022/11/19 21:17:14
  29. win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...

    置信有很多用户都跟小编一样遇到过这样的问题&#xff0c;电脑时发现开机屏幕显现“正在配置Windows Update&#xff0c;请勿关机”(如下图所示)&#xff0c;而且还需求等大约5分钟才干进入系统。这是怎样回事呢&#xff1f;一切都是正常操作的&#xff0c;为什么开时机呈现“正…...

    2022/11/19 21:17:13
  30. 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...

    Win7系统开机启动时总是出现“配置Windows请勿关机”的提示&#xff0c;没过几秒后电脑自动重启&#xff0c;每次开机都这样无法进入系统&#xff0c;此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一&#xff1a;开机按下F8&#xff0c;在出现的Windows高级启动选…...

    2022/11/19 21:17:12
  31. 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...

    有不少windows10系统用户反映说碰到这样一个情况&#xff0c;就是电脑提示正在准备windows请勿关闭计算机&#xff0c;碰到这样的问题该怎么解决呢&#xff0c;现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法&#xff1a;1、2、依次…...

    2022/11/19 21:17:11
  32. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...

    今天和大家分享一下win7系统重装了Win7旗舰版系统后&#xff0c;每次关机的时候桌面上都会显示一个“配置Windows Update的界面&#xff0c;提示请勿关闭计算机”&#xff0c;每次停留好几分钟才能正常关机&#xff0c;导致什么情况引起的呢&#xff1f;出现配置Windows Update…...

    2022/11/19 21:17:10
  33. 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...

    只能是等着&#xff0c;别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚&#xff0c;只能是考虑备份数据后重装系统了。解决来方案一&#xff1a;管理员运行cmd&#xff1a;net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...

    2022/11/19 21:17:09
  34. 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?

    原标题&#xff1a;电脑提示“配置Windows Update请勿关闭计算机”怎么办&#xff1f;win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢&#xff1f;一般的方…...

    2022/11/19 21:17:08
  35. 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...

    关机提示 windows7 正在配置windows 请勿关闭计算机 &#xff0c;然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;关机提示 windows7 正在配…...

    2022/11/19 21:17:05
  36. 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...

    钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...

    2022/11/19 21:17:05
  37. 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...

    前几天班里有位学生电脑(windows 7系统)出问题了&#xff0c;具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面&#xff0c;长时间没反应&#xff0c;无法进入系统。这个问题原来帮其他同学也解决过&#xff0c;网上搜了不少资料&#x…...

    2022/11/19 21:17:04
  38. 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...

    本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法&#xff0c;并在最后教给你1种保护系统安全的好方法&#xff0c;一起来看看&#xff01;电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中&#xff0c;添加了1个新功能在“磁…...

    2022/11/19 21:17:03
  39. 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...

    许多用户在长期不使用电脑的时候&#xff0c;开启电脑发现电脑显示&#xff1a;配置windows更新失败&#xff0c;正在还原更改&#xff0c;请勿关闭计算机。。.这要怎么办呢&#xff1f;下面小编就带着大家一起看看吧&#xff01;如果能够正常进入系统&#xff0c;建议您暂时移…...

    2022/11/19 21:17:02
  40. 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...

    配置windows update失败 还原更改 请勿关闭计算机&#xff0c;电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;配置windows update失败 还原更改 请勿关闭计算机&#x…...

    2022/11/19 21:17:01
  41. 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...

    不知道大家有没有遇到过这样的一个问题&#xff0c;就是我们的win7系统在关机的时候&#xff0c;总是喜欢显示“准备配置windows&#xff0c;请勿关机”这样的一个页面&#xff0c;没有什么大碍&#xff0c;但是如果一直等着的话就要两个小时甚至更久都关不了机&#xff0c;非常…...

    2022/11/19 21:17:00
  42. 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...

    当电脑出现正在准备配置windows请勿关闭计算机时&#xff0c;一般是您正对windows进行升级&#xff0c;但是这个要是长时间没有反应&#xff0c;我们不能再傻等下去了。可能是电脑出了别的问题了&#xff0c;来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...

    2022/11/19 21:16:59
  43. 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...

    我们使用电脑的过程中有时会遇到这种情况&#xff0c;当我们打开电脑之后&#xff0c;发现一直停留在一个界面&#xff1a;“配置Windows Update失败&#xff0c;还原更改请勿关闭计算机”&#xff0c;等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢&#xff0…...

    2022/11/19 21:16:58
  44. 如何在iPhone上关闭“请勿打扰”

    Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...

    2022/11/19 21:16:57