目录

第2章 神经网络的数学基础

2.1 初识神经网络

2.2 神经网络的数据表示

2.2.1 标量(0D张量)

2.2.2 向量(1D张量)

2.2.3 矩阵(2D张量)

2.2.4 3D张量与更高维张量

2.2.5 关键属性

2.2.6 在Numpy中操作张量

2.2.7 数据批量的概念

2.2.8 现实世界中的数据张量

2.2.9 向量数据

2.2.10 时间序列数据或序列数据

2.2.11 图像数据

2.2.12 视频数据

2.3 神经网络的“齿轮”:张量运算

2.3.1 逐元素运算

2.3.2 广播

2.3.3 张量点积

2.3.4 张量变形

2.3.5 张量运算的几何解释

2.3.6 深度学习的几何解释

2.4 神经网络的“引擎” :基于梯度的优化

2.4.1 什么是导数

2.4.2 张量运算的导数:梯度

2.4.3 随机梯度下降

2.4.4 链式求导:反向传播算法

2.5 回顾第一个例子

本章小结


第2章 神经网络的数学基础

2.1 初识神经网络

# 加载Keras中的MNIST数据集
from keras.datasets import mnist
(train_images, train_labels), (test_images, test_labels) = mnist.load_data()print(train_images.shape)
print(len(train_labels))
print(train_labels)print(test_images.shape)
print(len(test_labels))
print(test_labels)
(60000, 28, 28)
60000
[5 0 4 ... 5 6 8]
(10000, 28, 28)
10000
[7 2 1 ... 4 5 6]

接下来的工作流程如下:首先,将训练数据(train_images和train_labels)输入神经网络;其次,网络学习将图像和标签关联在一起;最后,网络对test_images生成预测,而我们将验证这些预测与test_labels中的标签是否匹配。

神经网络的核心组件是层,它是一种数据处理模块,你可以将它看成数据过滤器,进去一些数据,出来的数据变得更加有用。具体来说,层从数据中提取表示——我们期望这种表示有助于解决手头的问题。大多数深度学习都是将简单的层链接起来,从而实现渐进式的数据蒸馏。深度学习模型就像是数据处理的筛子,包含一系列越来越精细的数据过滤器(即层)。

想要训练网络,我们还需要选择编译步骤的三个参数。

1.损失函数:网络如何衡量在训练数据上的性能,即网络如何朝着正确的方向前进;

2.优化器:基于训练数据和损失函数来更新网络的机制;

3.在训练和测试过程中需要监控的指标:本例只关心精度,即正确分类的图像所占的比例。

from keras import models
from keras import layersnetwork = models.Sequential()
network.add(layers.Dense(512, activation='relu', input_shape=(28 * 28,)))
network.add(layers.Dense(10, activation='softmax'))
network.compile(optimizer='rmsprop', loss='categorical_crossentropy', metrics=['accuracy'])

在开始训练之前,我们将对数据进行预处理,将其变换为网络要求的形状,并缩放到所有值都在[0,1]区间。

train_images = train_images.reshape((60000, 28 * 28))
train_images = train_images.astype('float32') / 255test_images = test_images.reshape((10000, 28 * 28))
test_images = test_images.astype('float32') / 255

我们还需要对标签进行分类编码。

from keras.utils.np.utils import to_categoricaltrain_labels = to_categorical(train_labels)
test_labels = to_categorical(test_labels)

现在我们准备开始训练网络,在Keras中这一步是通过调用网络的fit方法来完成的——我们在训练数据上拟合模型。

print(network.fit(train_images, train_labels, epochs=5, batch_size=128))
Epoch 1/5
469/469 [==============================] - 3s 4ms/step - loss: 0.2583 - accuracy: 0.9255
Epoch 2/5
469/469 [==============================] - 2s 4ms/step - loss: 0.1044 - accuracy: 0.9688
Epoch 3/5
469/469 [==============================] - 2s 4ms/step - loss: 0.0691 - accuracy: 0.9796
Epoch 4/5
469/469 [==============================] - 2s 4ms/step - loss: 0.0500 - accuracy: 0.9848
Epoch 5/5
469/469 [==============================] - 2s 4ms/step - loss: 0.0379 - accuracy: 0.9884

训练过程中显示了两个数字:一个是网络在训练数据上的损失(loss),另一个是网络在训练数据上的精度(acc)。我们很快就在训练数据上达到了98.8%的精度,现在我们来检查一下模型在测试集上的性能。

test_loss, test_acc = network.evaluate(test_images, test_labels)
print('test_acc:', test_acc)
test_acc: 0.9794999957084656

测试集精度为97.9%,比训练集精度低不少。训练精度和测试精度之间的这种差距是过拟合造成的,过拟合是指机器学习模型在新数据上的性能往往比在训练数据上要差。

2.2 神经网络的数据表示

前面例子使用的数据存储在多维Numpy数组中,也叫张量。一般来说,当前所有机器学习系统都使用张量作为基本数据结构。张量这一概念的核心在于,它是一个数据容器,它包含的数据几乎总是数值数据,因此它是数字的容器。矩阵是二维张量,张量是矩阵向任意维度的推广,张量的维度通常叫作轴。

2.2.1 标量(0D张量)

仅包含一个数字的张量叫作标量(scalar,也叫标量张量、零维张量,0D张量)。在Numpy中,一个float32或float64的数字就是一个标量张量(或标量数组)。标量张量有0个轴(ndim == 0),张量轴的个数也叫作阶。

import numpy as npx = np.array(12)
print(x)
print(x.ndim)
12
0

2.2.2 向量(1D张量)

数字组成的数组叫作向量或一维张量(1D张量)。一维张量只有一个轴。

x = np.array([12, 3, 6, 14, 7])
print(x)
print(x.ndim)
[12  3  6 14  7]
1

2.2.3 矩阵(2D张量)

向量组成的数组叫作矩阵或二维张量(2D张量)。矩阵有两个轴(通常叫作行和列),你可以将矩阵直观地理解为数字组成的矩形网格。

x = np.array([[5, 78, 2, 34, 0],[6, 79, 3, 35, 1],[7, 80, 4, 36, 2]])
print(x)
print(x.ndim)
[[ 5 78  2 34  0][ 6 79  3 35  1][ 7 80  4 36  2]]
2

第一个轴上的元素叫作行,第二个轴上的元素叫作列。

2.2.4 3D张量与更高维张量

将多个矩阵组合成一个新的数组,可以得到一个3D张量,你可以将其直观地理解为数字组成的立方体。

x = np.array([[[5, 78, 2, 34, 0],[6, 79, 3, 35, 1],[7, 80, 4, 36, 2]],[[5, 78, 2, 34, 0],[6, 79, 3, 35, 1],[7, 80, 4, 36, 2]],[[5, 78, 2, 34, 0],[6, 79, 3, 35, 1],[7, 80, 4, 36, 2]]])
print(x)
print(x.ndim)
[[[ 5 78  2 34  0][ 6 79  3 35  1][ 7 80  4 36  2]][[ 5 78  2 34  0][ 6 79  3 35  1][ 7 80  4 36  2]][[ 5 78  2 34  0][ 6 79  3 35  1][ 7 80  4 36  2]]]
3

将多个3D张量组合成一个数组,可以创建一个4D张量,以此类推。深度学习处理的一般是0D到4D的张量,但处理视频数据时可能会遇到5D张量。

2.2.5 关键属性

张量是由以下三个关键属性来定义的。

1.轴的个数(阶)。3D张量有3个轴,矩阵有2个轴。

2.形状。这是一个整数元组,表示张量沿每个轴的维度大小(元素个数)。

3.数据类型。这是张量中所包含数据的类型。例如,张量的类型可以是float32、unit8、float64等。在极少数情况下,你可能会遇到字符张量。Numpy(以及大多数其他库)中不存在字符串张量,因为张量存储在预先分配的连续内存段中,而字符串的长度是可变的,无法用这种方式存储。

from keras.datasets import mnist(train_images, train_labels), (test_images, test_labels) = mnist.load_data()print(train_images.ndim)
print(train_images.shape)
print(train_images.dtype)
3
(60000, 28, 28)
uint8

所以,这里train_images是一个由8位整数组成的3D张量,更确切地说,它是60000个矩阵组成的数组,每个矩阵由28x28个整数组成,每个这样的矩阵都是一张灰度图像,元素取值范围为0~255。

import matplotlib.pyplot as pltdigit = train_image[3]
plt.imshow(digit, cmap=plt.cm.binary)
plt.show()

上图显示的是数据集中的第4个样本。

2.2.6 在Numpy中操作张量

在前面的例子中,我们使用语法train_images[i]来选择沿着第一个轴的特定数字,选择张量的特定元素叫作张量切片。

my_slice = train_images[9:99]
print(my_slice.shape)
(90, 28, 28)

上面这个例子选择第10~100个数字(不包括第100个),并将其放在形状为(90, 28, 28)的数组中。

它等同于下面这个更复杂的写法,给出了切片沿着每个张量轴的起始索引和结束索引。:等同于选择整个轴。

my_slice = train_images[9:99, :, :]
print(my_slice.shape)my_slice = train_images[9:99, 0:28, 0:28]
print(my_slice.shape)

2.2.7 数据批量的概念

通常来说,深度学习中所有数据张量的第一个轴(0轴,因为索引从0开始)都是样本轴(有时也叫样本维度)。

此外,深度学习模型不会同时处理整个数据集,而是将数据拆分成小批量。

batch = train_images[:128]
batch = train_images[128:256]
batch = train_images[128 * n:128 * (n + 1)]

对于这种批量张量,第一个轴(0轴)叫做批量轴或批量维度。

2.2.8 现实世界中的数据张量

1.向量数据:2D张量;

2.时间序列数据或序列数据:3D张量;

3.图像:4D张量;

4.视频:5D张量。

2.2.9 向量数据

这是最常见的数据。对于这种数据集,每个数据点都被编码为一个向量,因此一个数据批量就被编码为2D张量(即向量组成的数组),其中第一个轴是样本轴,第二个轴是特征轴。

2.2.10 时间序列数据或序列数据

当时间(或序列顺序)对于数据很重要时,应该将数据存储在带有时间轴地3D张量中。每个样本可以被编码为一个向量序列(即2D张量),因此一个数据批量就被编码为一个3D张量。

2.2.11 图像数据

图像通常具有三个维度:高度、宽度和颜色深度。虽然灰度图像只有一个颜色通道,因此可以保存在2D张量中,但按照惯例,图像张量始终都是3D张量,灰度图像的彩色通道只有一维。

图像张量的形状有两种约定:通道在后的约定和通道在前的约定。

2.2.12 视频数据

视频数据是现实生活中需要用到5D张量的少数数据类型之一。视频可以看作一系列帧,每一帧都是一张彩色图像。由于每一帧都可以保存在一个3D张量中,因此一系列帧可以保存在一个4D张量中,而不同视频组成的批量帧可以保存在一个5D张量中。

2.3 神经网络的“齿轮”:张量运算

所有计算机程序最终都可以简化为二进制输入上的一些二进制运算,与此类似,深度神经网络学到的所有变换也都可以简化为数值数据张量上的一些张量运算。

在最开始的例子中,我们通过叠加Dense层来构建网络。

2.3.1 逐元素运算

relu运算和加法都是逐元素的运算,即该运算独立地应用于张量中的每个元素,也就是说,这些运算非常适合大规模并行实现(向量化实现)

def naive_relu(x):assert len(x.shape) == 2x = x.copy()for i in range(x.shape[0]):for j in range(x.shape[1]):x[i, j] = max(x[i, j], 0)return xdef naive_add(x, y):assert len(x.shape) == 2assert x.shape == y.shapex = x.copy()for i in range(x.shape[0]):for j in range(x.shape[1]):x[i, j] += y[i, j]return x

2.3.2 广播

如果没有歧义的话,较小的张量会被广播,以匹配较大张量的形状,广播包含以下两步:

1.向较小的张量添加轴(叫做广播轴),使其ndim与较大的张量相同;

2.将较小的张量沿着新轴重复,使其形状与较大的张量相同。

def naive_add_matrix_and_vector(x, y):assert len(x.shape) == 2assert len(y.shape) == 1assert x.shape[1] == y.shape[0]x = x.copy()for i in range(x.shape[0]):for i in range(x.shape[1]):x[i, j] += y[j]return x

下面这个例子利用广播将逐元素的maximum运算应用于两个形状不同的张量。

import numpy as npx = np.random.random((64, 3, 32, 10))
y = np.random.random((32, 10))z = np.maximum(x, y)

2.3.3 张量点积

点积运算,也叫张量积(不要与逐元素的乘积弄混),是最常见也最有用的张量运算。与逐元素的运算不同,它将输入张量的元素合并在一起。

我们首先看一下两个向量x和y的点积,其计算过程如下:

def naive_vector_dot(x, y):assert len(x.shape) == 1assert len(y.shape) == 1assert x.shape[0] == y.shape[0]z = 0for i in range(x.shape[0]):z += x[i] * y[i]return z

两个向量之间的点积是一个标量,而且只有元素个数相同的向量之间才能做点积。

一个矩阵x和一个向量y做点积,返回值是一个向量,其中每个元素是y和x的每一行之间的点积。

import numpy as npdef naive_matrix_vector_dot(x, y):assert len(x.shape) == 2assert len(y.shape) == 1assert x.shape[1] == y.shape[0]z = np.zeros(x.shape[0])for i in range(x.shape[0]):for j in range(x.shape[1]):z[i] += x[i, j] * y[j]return z
def naive_matrix_vector_dot(x, y):z = np.zeros(x.shape[0])for i in range(x.shape[0]):z[i] = naive_vector_dot(x[i, :], y)return z

如果两个张量中有一个的ndim大于1,那么dot运算就不再是对称的,也就是说,dot(x, y)不等于dot(y, x)。

点积可以推广到具有任意个轴的张量,最常见的应用可能就是两个矩阵之间的点积,对于两个矩阵x和y,当且仅当x.shape[1] == y.shape[0]时,你才可以对它们做点积(dot(x, y))。得到的结果是一个形状为(x.shape[0], y.shape[1])的矩阵,其元素为x的行与y的列之间的点积。

def naive_matrix_dot(x, y):assert len(x.shape) == 2assert len(y.shape) == 2assert x.shape[1] == y.shape[0]z = np.zeros((x.shape[0], y.shape[1]))for i in range(x.shape[0]):for j in range(y.shape[1]):row_x = x[i, :]column_y = y[:, j]z[i, j] = naive_vector_dot(row_x, column_y)return z

如图所示,x、y、z都用矩形表示(元素按矩形排列)。x的行和y的列必须大小相同,因此x的宽度一定等于y的高度。

2.3.4 张量变形

第三个重要的张量运算是张量变形,在将图像数据输入神经网络之前,我们在预处理时用到了这个运算。

张量变形是指改变张量的行和列,以得到想要的形状。变形后的张量的元素总个数与初始张量相同。

import numpy as npx = np.array([[0., 1.],[2., 3.],[4., 5.]])
print(x)x = x.reshape((6, 1))
print(x)x = x.reshape((2, 3))
print(x)
[[0. 1.][2. 3.][4. 5.]]
[[0.][1.][2.][3.][4.][5.]]
[[0. 1. 2.][3. 4. 5.]]

 经常遇到的一种特殊的张量变形是转置,对矩阵做转置是指将行和列互换,使x[i, :]变为x[:, i]。

x = np.zeros((300, 20))
x = np.transpose(x)
print(x.shape)
(20, 300)

2.3.5 张量运算的几何解释

对于张量运算所操作的张量,其元素可以被解释为某种几何空间内点的坐标,因此所有的张量运算都有几何解释。

通常来说,仿射变换、旋转、缩放等基本的几何操作都可以表示为张量运算。

2.3.6 深度学习的几何解释

神经网络完全由一系列张量运算组成,而这些张量运算都只是输入数据的几何变换。因此,你可以将神经网络解释为高维空间中非常复杂的几何变换。

神经网络(或者任何机器学习模型)要做的就是找到可以让纸球恢复平整的变换,从而能够再次让两个类别明确可分。通过深度学习,这一过程可以用三维空间中一系列简单的变换来实现。

让纸球恢复平整就是机器学习的内容:为复杂的、高度折叠的数据流形找到简洁的表示。深度学习将复杂的几何变换逐步分解为一长串基本的几何变换,这与人类展开纸球所采取的策略大致相同。深度网络的每一层都通过变换使数据解开一点点——许多层堆叠在一起,可以实现非常复杂的解开过程。

2.4 神经网络的“引擎” :基于梯度的优化

output = relu(dot(W, input) + b)

在这个表达式中,W和b都是张量,均为该层的属性。它们被称为该层的权重或可训练参数,分别对应kernel和bias属性,这些权重包含网络从观察训练数据中学到的信息。

一开始,这些权重矩阵取较小的随机值,这一步叫做随机初始化,下一步则是根据反馈信号逐渐调节这些权重。这个逐渐调节的过程叫做训练,也就是机器学习中的学习。

上述过程发生在一个训练循环内,具体过程如下,必要时一直重复这些步骤:

1.抽取训练样本x和对应目标y组成的数据批量;

2.在x上运行网络[这一步叫作前向传播],得到预测值y_pred;

3.计算网络在这批数据上的损失,用于衡量y_pred和y之间的距离;

4.更新网络的所有权重,使网络在这批数据上的损失略微下降。

最终得到的网络在训练数据上的损失非常小,即预测值y_pred和预期目标y之间的距离非常小。网络“学会”将输入映射到正确的目标。

难点在于第四步:更新网络的权重。考虑网络中某个权重系数,你怎么知道这个系数应该增大还是减小,以及变化多少?

一种简单的解决方案是,保持网络中其他权重不变,只考虑某个标量系数,让其尝试不同的取值。

一种更好的方法是利用网络中所有运算都是可微的这一事实,计算损失相对于网络系数的梯度,然后向梯度的反方向改变系数,从而使损失降低。

2.4.1 什么是导数

导数完全描述了改变x后f(x)会如何变化,如果你希望减小f(x)的值,只需将x沿着导数的反方向移动一小步。

2.4.2 张量运算的导数:梯度

梯度是张量运算的导数,它是导数这一概念的多元函数导数的推广,多元函数是以张量作为输入的函数。

前面已经看到,单变量函数f(x)的导数可以看作函数f曲线的斜率,同样,gradient(f)(W0)也可以看作表示f(W)在W0附近曲率的张量。

对于一个函数f(x),你可以通过将x向导数的反方向移动一小步来减小f(x)的值。同样,对于张量的函数f(W),你也可以通过将W向梯度的反方向移动来减小f(W)。也就是说,沿着曲率的反方向移动,直观上来看在曲线上的位置会更低。

2.4.3 随机梯度下降

给定一个可微函数,理论上可以用解析法找到它的最小值:函数的最小值是导数为0的点,因此你只需找到所有导数为0的点,然后计算函数在其中哪个点具有最小值。

将这一方法应用于神经网络,就是用解析法求出最小损失函数对应的所有权重值。

沿着梯度的反方向更新权重,损失每次都会变小一点。

1.抽取训练样本x和对应目标y组成的数据批量;

2.在x上运行网络,得到预测值y_pred;

3.计算网络在这批数据上的损失;

4.将参数沿着梯度的反方向移动一点,比如W -= step * gradient,从而使这批数据上的损失减小一点。

这种方法叫做小批量随机梯度下降,又称为小批量SDG。术语随机是指每批数据都是随机抽取的。

小批量SGD算法的一个变体是每次迭代时只抽取一个样本和目标,而不是抽取一批数据,这叫作真SGD(有别于小批量SGD) 。还有一种极端,每一次迭代都在所有数据上运行,这叫作批量SGD。这样做的话,每次更新都更加准确,但计算代价也高得多,这两个极端之间的有效折中则是选择合理的批量大小。

神经网络的每一个权重参数都是空间中的一个自由维度,网络中可能包含数万个甚至上百万个参数维度。你不可能将神经网络的实际训练过程可视化,因为你无法用人类可以理解的方式来可视化1000000维空间。因此最好记住,在这些低维表示中形成的直觉在实践中不一定总是准确的,这在历史上一直是深度学习研究的问题来源。

此外,SGD还有多种变体,其区别在于计算下一次权重更新时还要考虑上一次权重更新,而不仅仅考虑当前梯度值,这些变体被称为优化方法或优化器。

如图,在某个参数值附近,有一个局部极小点:在这个点附近,向左移动和向右移动都会导致损失值增大,如果使用小学习率的SGD进行优化,那么优化过程可能会陷入局部极小点,导致无法找到全局最小点,使用动量方法可以避免这样的问题。

past_velocity = 0
momentum = 0.1
while loss > 0.01:w, loss, gradient = get_current_parameters()velocity = past_velocity * momentum - learning_rate * gradientw = w + momentum * veloctiy - learning_rate * gradientpast_velocity = velocityupdate_parameter(w)

2.4.4 链式求导:反向传播算法

将链式法则应用于神经网络梯度值的计算,得到的算法叫做反向传播,有时也叫反式微分。反向传播从最终损失值开始,从最顶层反向作用至最底层,利用链式法则计算每个参数对损失值的贡献大小。

现在以及未来数年,人们将使用能够进行符号微分的现代框架来实现神经网络,比如TensorFlow,也就是说,给定一个运算链,并且已知每个运算的导数,这些框架就可以利用链式法则来计算这个运算链的梯度函数,将网络参数值映射为梯度值。对于这样的函数,反向传播就简化为调用这个梯度函数。由于符号微分的出现,你无需手动实现反向传播算法。

2.5 回顾第一个例子

from keras.datasets import mnist
from keras import models
from keras import layers
import matplotlib.pyplot as plt(train_images, train_labels), (test_images, test_labels) = mnist.load_data()train_images = train_images.reshape((60000, 28 * 28))
train_images = train_images.astype('float32') / 255test_images = test_images.reshape((10000, 28 * 28))
test_images = test_images.astype('float32') / 255network = models.Sequential()
network.add(layers.Dense(512, activation='relu', input_shape=(28 * 28)))
network.add(layers.Dense(10, activation='softmax'))
network.compile(optimizer='rmsprop',loss = 'categorical_crossentropy',metrics=['accuracy'])
network.fit(train_images, train_labels, epochs=5, batch_size=128)

网络开始在训练数据上进行迭代,共迭代5(在所有训练数据上迭代一次叫作一个轮次)。在每次迭代过程中,网络会计算批量损失相对于权重的梯度,并相应地更新权重。5轮之后,网络进行了2345次梯度更新,网络损失值将变得足够小,使得网络能够以很高的精度对手写数字进行分类。

本章小结

1.学习是指找到一组模型参数,使得在给定的训练数据样本和对应目标值上的损失函数最小化。

2.学习的过程:随机选取包含数据样本及其目标值的批量,并计算批量损失对于网络参数的梯度,随后将网络参数沿着梯度的反方向稍稍移动(移动距离由学习率指定) 。

3.整个学习过程之所以能够实现,是因为神经网络是一系列可微分的张量运算,因此可以利用求导的链式法则来得到梯度函数,这个函数将当前参数和当前数据批量映射为一个梯度值。

4.将数据输入网络之前,需要先定义损失和优化器。

5.损失是在训练过程中需要最小化的量,因此,它应该能够衡量当前任务是否已经成功解决。

6.优化器是使用损失梯度更新参数的具体方式,比如RMSProp优化器、带动量的随机梯度下降(SGD)等。

 

查看全文
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

相关文章

  1. 医疗影像分割

    1.U-Net 看了好几个帖子这个讲的比较贴!! 介绍内容:医学影像常用图像格式: (1)DICOM (2)MHD/RAW (3)NRRD 1.1 U-Net的架构 U-Net的U形结构如下图所示。网…...

    2024/4/20 4:40:46
  2. Java 继承 修饰符

    文章目录1.继承1.1继承的实现1. 继承的概念2. 实现继承的格式1.2继承的好处和弊端1. 好处2. 弊端3. 继承的应用场景:2. 继承中的成员访问特点2.1继承中变量的访问特点2.2 super 关键字1. this 和 super 关键字:2. this 和 super的使用2.3 继承中构造方法…...

    2024/4/13 6:25:29
  3. DAY 19冲击蓝桥杯——Python实例100之26-30

    文章目录Q11.1 题目1.2 思路1.3 代码Q22.1 题目2.2 思路2.3 代码Q33.1 题目3.2 思路3.3 代码Q44.1 题目4.2 思路4.3 代码Q55.1 题目5.2 思路5.3 代码Q1 1.1 题目 利用递归方法求5!。 1.2 思路 递归公式:fnfn_1*4! 1.3 代码 def fact(j):sum 0if j 0:sum 1e…...

    2024/5/9 11:52:58
  4. 11.图论

    1.基础知识 对于图来说比较重要的就是图的深度遍历和图的广度遍历,下面是这两种遍历的基本思想 1.深度遍历: 这里可以用深度搜索遍历的原因是,深度优先搜索使用的数据结构是栈。我们先将出度为 0 的节点放入,而出度为 0 的节点…...

    2024/4/20 17:43:05
  5. Python基础(五) - 面向对象编程

    python完全采用了面向对象的思想,是真正面向对象的编程语言,支持面向对象的基本操作,例如:继承、多态、封装。 python中一切皆对象。python支持面向对象、面向过程、函数式编程等多种编程范式。 目录面向对象和面向过程的区别类的…...

    2024/5/9 13:31:50
  6. 10.动态规划

    1.动态规划模板 1.确定dp数组(dp table)以及下标的含义 2.确定递推公式 3.dp数组如何初始化 4.确定遍历顺序 5.举例推导dp数组 1.1 动态规划和回溯的区别 什么时候用动态规划,什么时候用回溯: 如果一个题的答案是一个值&a…...

    2024/5/9 13:35:57
  7. 产生临时对象的情况和性能优化

    目录产生临时对象的情况和解决方案1.以传值的方式给函数传递参数2.类型转换生成的临时对象/隐式类型转换以保证函数调用成功3.函数返回对象的时候产生临时对象的情况和解决方案 1.以传值的方式给函数传递参数 执行以下案例: 传值时的赋值操作 #include <iostream>usin…...

    2024/5/9 15:25:21
  8. SpringMVC 组件解析

    1.SpringMVC的执行流程 1.用户发送请求至前端控制器DispatcherServlet。 2.DispatcherServlet收到请求调用HandlerMapping处理器映射器。 3.处理器映射器找到具体的处理器&#xff08;可以根据xml配置、注解进行查找&#xff09;&#xff0c;生成处理器对象及处理器拦截器&am…...

    2024/4/13 6:25:24
  9. 在IntelliJ IDEA中如何使用Gradle

    概述 Gradle是一个基于Apache Ant和Apache Maven概念的项目自动化构建开源工具&#xff0c;该工具使用一种基于Groovy的特定领域语言(DSL)来声明项目设置&#xff0c;抛弃了基于XML的繁琐配置&#xff0c;当前支持的语言限于Java、Groovy、Kotlin和Scala&#xff1b;与Maven比…...

    2024/4/18 5:29:50
  10. 4.字符串

    1.字符串 2.LeetCode 相关题目 2.1_344反转字符串 LeetCode题目链接 2.1.1算法描述 使用双指针翻转字符串 可以与翻转链表进行对比学习 2.1.2 Python 代码实现 class Solution:def reverseString(self, s: List[str]) -> None:"""Do not return anyt…...

    2024/4/13 6:25:14
  11. 国经信中心「APEC文化+」:中国有谊酒——团结派“有谊义””忠义无双“发布2022新春祝福

    中国品牌网全球ChinaBrand品牌公益与ESG资讯&#xff1a; 「APEC文化」&#xff1a; 中国有谊酒——团结派“有谊义””忠义无双“发布2022新春祝福 版权猫ipMALL的签约艺术家CalvinCalbin卡鲁兵卡鲁兵蜀黍经过同意&#xff0c;将知名爱国者、勇于改变的世界洪门历史文化协会…...

    2024/4/13 6:24:59
  12. 7.树相关

    1.树 1.1树的定义 树是一种非线性数据结构&#xff0c;在某些时候非线性结构比线性结构处理数据时要快的多。 1.2 树的应用场景 1.2.1 Linux/Unix 文件夹与文件 1.2.2 继承 下图用树结构模拟的各类之间的继承关系 1.2.3 树的抽象数据类型 1.二叉树的定义 struct TreeNod…...

    2024/4/8 18:57:15
  13. AI - 什么是假设检验?

    1. 定义&#xff1a;假设检验(hypothesis testing)&#xff0c;又称统计假设检验&#xff0c;是用来判断样本与样本、样本与总体的差异是由抽样误差引起还是本质差别造成的统计推断方法。显著性检验是假设检验中最常用的一种方法&#xff0c;也是一种最基本的统计推断形式&…...

    2024/4/13 6:25:04
  14. 【C语言】操作符详解

    文章目录前言操作符分类• 算数操作符• 移位操作符• 位操作符• 赋值操作符• 单目操作符• 关系操作符• 逻辑操作符• 条件操作符• 逗号表达式• 下标引用• 函数调用• 结构成员总结前言 C语言中操作符不多&#xff0c;但是有些相同的操作符都是在不同的表达式中&#x…...

    2024/4/5 2:08:36
  15. 荣耀机试题—进制转换:十进制数转成任意进制数(2-64进制)

    本文不直接解答该题&#xff0c;只解决该题的核心部分&#xff0c;实现十进制数转换成任意进制数。 荣耀机试题的原题&#xff1a; 小明最近在学bash语言&#xff0c;发现Bash算术运算相比于C/pvthon等其他语言有一个特性&#xff0c;是其中常量表示规则: 1、一般形式是[base…...

    2024/5/9 13:19:08
  16. 6.栈和队列

    1.栈 Stack 1.1 栈的定义 栈提供push 和 pop 等等接口&#xff0c;所有元素必须符合先进后出规则&#xff0c;所以栈不提供走访功能&#xff0c;也不提供迭代器(iterator)。 不像是set 或者map 提供迭代器iterator来遍历所有元素。 栈是以底层容器完成其所有的工作&#xff0…...

    2024/5/9 17:14:41
  17. leetcode 93. 复原 IP 地址 [回溯]

    1.题目要求 leetcode 93. 复原 IP 地址 有效 IP 地址 正好由四个整数&#xff08;每个整数位于 0 到 255 之间组成&#xff0c;且不能含有前导 0&#xff09;&#xff0c;整数之间用 ‘.’ 分隔。 例如&#xff1a;“0.1.2.201” 和 “192.168.1.1” 是 有效 IP 地址&#x…...

    2024/4/14 1:29:54
  18. WP网站固定连接被更改后出现404–一步教你找回

    详细内容参考链接&#xff1a; WP网站固定连接被更改后出现404–一步教你找回 – Rookie diary (tuyogf.top)https://tuyogf.top/2022/02/11/wp%e7%bd%91%e7%ab%99%e5%9b%ba%e5%ae%9a%e8%bf%9e%e6%8e%a5%e8%a2%ab%e6%9b%b4%e6%94%b9%e5%90%8e%e5%87%ba%e7%8e%b0404-%e4%b8%80%…...

    2024/4/13 6:26:04
  19. spring session报错:ClassNotFoundException: org.springframework.session.SaveMode

    今天尝试着自己玩一下Spring session这个东西 我Spring的版本是&#xff1a; 2.1.5.RELEASE 1、加入了以下依赖&#xff1a; 2、配置文件&#xff1a; 3、启动类开启注解 4、启动。。。 居然报错了。。。百度又找不到&#xff0c;这是依赖不完整吗&#xff1f;导致没有sessio…...

    2024/4/20 9:35:48
  20. win10+python3.7如何配置搭建tensorflow

    目录 1. 安装TensorFlow 2. 验证是否安装成功 1. 安装TensorFlow 打开anaconda prompt&#xff0c;下载tf前先下载对应的Keras&#xff0c; 键入pip install keras2.3.1&#xff0c; 待下载成功后再键入pip install tensorflow2.2。 PS&#xff1a; &#xff08;1&#…...

    2024/4/13 6:26:19

最新文章

  1. 【Java EE】网络原理——UDP

    目录 1.应用层 2.传输层 2.1端口号 2.1.1端口号的范围划分 2.1.2一个端口号可以被多个进程绑定吗&#xff1f; 2.1.3一个进程可以绑定多个端口号吗&#xff1f; 3.UDP协议 3.1UDP的格式 3.1.1 UDP的源端口号 3.1.2 UDP的目的端口号 3.1.3 UDP长度 3.1.4UDP校验和 3…...

    2024/5/9 17:22:44
  2. 梯度消失和梯度爆炸的一些处理方法

    在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言&#xff0c;在此感激不尽。 权重和梯度的更新公式如下&#xff1a; w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...

    2024/5/7 10:36:02
  3. JVM学习笔记

    文章目录 一、内存模型1. 程序计数器2. 栈3. 本地方法栈4. 堆5. 方法区方法区位置字符串常量池位置 6. 直接内存 二、虚拟机参数设置三、类的生命周期1. 加载2. 连接1&#xff09;验证2&#xff09;准备3&#xff09;解析 3. 初始化4. 卸载 四、类加载器1. 启动类加载器2. 扩展…...

    2024/5/7 6:47:46
  4. 【VTKExamples::Meshes】第七期 TableBasedClipDataSetWithPolyData

    很高兴在雪易的CSDN遇见你 VTK技术爱好者 QQ:870202403 公众号:VTK忠粉 前言 本文分享VTK样例TableBasedClipDataSetWithPolyData,并解析接口vtkTableBasedClipDataSet,希望对各位小伙伴有所帮助! 感谢各位小伙伴的点赞+关注,小易会继续努力分享,一起进步! 你…...

    2024/5/7 22:24:24
  5. 【外汇早评】美通胀数据走低,美元调整

    原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...

    2024/5/8 6:01:22
  6. 【原油贵金属周评】原油多头拥挤,价格调整

    原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...

    2024/5/9 15:10:32
  7. 【外汇周评】靓丽非农不及疲软通胀影响

    原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...

    2024/5/4 23:54:56
  8. 【原油贵金属早评】库存继续增加,油价收跌

    原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...

    2024/5/9 4:20:59
  9. 【外汇早评】日本央行会议纪要不改日元强势

    原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...

    2024/5/4 23:54:56
  10. 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响

    原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...

    2024/5/4 23:55:05
  11. 【外汇早评】美欲与伊朗重谈协议

    原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...

    2024/5/4 23:54:56
  12. 【原油贵金属早评】波动率飙升,市场情绪动荡

    原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...

    2024/5/7 11:36:39
  13. 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试

    原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...

    2024/5/4 23:54:56
  14. 【原油贵金属早评】市场情绪继续恶化,黄金上破

    原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...

    2024/5/6 1:40:42
  15. 【外汇早评】美伊僵持,风险情绪继续升温

    原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...

    2024/5/4 23:54:56
  16. 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势

    原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...

    2024/5/8 20:48:49
  17. 氧生福地 玩美北湖(上)——为时光守候两千年

    原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...

    2024/5/7 9:26:26
  18. 氧生福地 玩美北湖(中)——永春梯田里的美与鲜

    原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...

    2024/5/4 23:54:56
  19. 氧生福地 玩美北湖(下)——奔跑吧骚年!

    原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...

    2024/5/8 19:33:07
  20. 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!

    原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...

    2024/5/5 8:13:33
  21. 「发现」铁皮石斛仙草之神奇功效用于医用面膜

    原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...

    2024/5/8 20:38:49
  22. 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者

    原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...

    2024/5/4 23:54:58
  23. 广州械字号面膜生产厂家OEM/ODM4项须知!

    原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...

    2024/5/9 7:32:17
  24. 械字号医用眼膜缓解用眼过度到底有无作用?

    原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...

    2024/5/9 17:11:10
  25. 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...

    解析如下&#xff1a;1、长按电脑电源键直至关机&#xff0c;然后再按一次电源健重启电脑&#xff0c;按F8健进入安全模式2、安全模式下进入Windows系统桌面后&#xff0c;按住“winR”打开运行窗口&#xff0c;输入“services.msc”打开服务设置3、在服务界面&#xff0c;选中…...

    2022/11/19 21:17:18
  26. 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。

    %读入6幅图像&#xff08;每一幅图像的大小是564*564&#xff09; f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...

    2022/11/19 21:17:16
  27. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...

    win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面&#xff0c;在等待界面中我们需要等待操作结束才能关机&#xff0c;虽然这比较麻烦&#xff0c;但是对系统进行配置和升级…...

    2022/11/19 21:17:15
  28. 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...

    有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows&#xff0c;请勿关闭计算机”的提示&#xff0c;要过很久才能进入系统&#xff0c;有的用户甚至几个小时也无法进入&#xff0c;下面就教大家这个问题的解决方法。第一种方法&#xff1a;我们首先在左下角的“开始…...

    2022/11/19 21:17:14
  29. win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...

    置信有很多用户都跟小编一样遇到过这样的问题&#xff0c;电脑时发现开机屏幕显现“正在配置Windows Update&#xff0c;请勿关机”(如下图所示)&#xff0c;而且还需求等大约5分钟才干进入系统。这是怎样回事呢&#xff1f;一切都是正常操作的&#xff0c;为什么开时机呈现“正…...

    2022/11/19 21:17:13
  30. 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...

    Win7系统开机启动时总是出现“配置Windows请勿关机”的提示&#xff0c;没过几秒后电脑自动重启&#xff0c;每次开机都这样无法进入系统&#xff0c;此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一&#xff1a;开机按下F8&#xff0c;在出现的Windows高级启动选…...

    2022/11/19 21:17:12
  31. 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...

    有不少windows10系统用户反映说碰到这样一个情况&#xff0c;就是电脑提示正在准备windows请勿关闭计算机&#xff0c;碰到这样的问题该怎么解决呢&#xff0c;现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法&#xff1a;1、2、依次…...

    2022/11/19 21:17:11
  32. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...

    今天和大家分享一下win7系统重装了Win7旗舰版系统后&#xff0c;每次关机的时候桌面上都会显示一个“配置Windows Update的界面&#xff0c;提示请勿关闭计算机”&#xff0c;每次停留好几分钟才能正常关机&#xff0c;导致什么情况引起的呢&#xff1f;出现配置Windows Update…...

    2022/11/19 21:17:10
  33. 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...

    只能是等着&#xff0c;别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚&#xff0c;只能是考虑备份数据后重装系统了。解决来方案一&#xff1a;管理员运行cmd&#xff1a;net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...

    2022/11/19 21:17:09
  34. 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?

    原标题&#xff1a;电脑提示“配置Windows Update请勿关闭计算机”怎么办&#xff1f;win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢&#xff1f;一般的方…...

    2022/11/19 21:17:08
  35. 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...

    关机提示 windows7 正在配置windows 请勿关闭计算机 &#xff0c;然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;关机提示 windows7 正在配…...

    2022/11/19 21:17:05
  36. 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...

    钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...

    2022/11/19 21:17:05
  37. 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...

    前几天班里有位学生电脑(windows 7系统)出问题了&#xff0c;具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面&#xff0c;长时间没反应&#xff0c;无法进入系统。这个问题原来帮其他同学也解决过&#xff0c;网上搜了不少资料&#x…...

    2022/11/19 21:17:04
  38. 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...

    本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法&#xff0c;并在最后教给你1种保护系统安全的好方法&#xff0c;一起来看看&#xff01;电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中&#xff0c;添加了1个新功能在“磁…...

    2022/11/19 21:17:03
  39. 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...

    许多用户在长期不使用电脑的时候&#xff0c;开启电脑发现电脑显示&#xff1a;配置windows更新失败&#xff0c;正在还原更改&#xff0c;请勿关闭计算机。。.这要怎么办呢&#xff1f;下面小编就带着大家一起看看吧&#xff01;如果能够正常进入系统&#xff0c;建议您暂时移…...

    2022/11/19 21:17:02
  40. 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...

    配置windows update失败 还原更改 请勿关闭计算机&#xff0c;电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;配置windows update失败 还原更改 请勿关闭计算机&#x…...

    2022/11/19 21:17:01
  41. 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...

    不知道大家有没有遇到过这样的一个问题&#xff0c;就是我们的win7系统在关机的时候&#xff0c;总是喜欢显示“准备配置windows&#xff0c;请勿关机”这样的一个页面&#xff0c;没有什么大碍&#xff0c;但是如果一直等着的话就要两个小时甚至更久都关不了机&#xff0c;非常…...

    2022/11/19 21:17:00
  42. 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...

    当电脑出现正在准备配置windows请勿关闭计算机时&#xff0c;一般是您正对windows进行升级&#xff0c;但是这个要是长时间没有反应&#xff0c;我们不能再傻等下去了。可能是电脑出了别的问题了&#xff0c;来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...

    2022/11/19 21:16:59
  43. 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...

    我们使用电脑的过程中有时会遇到这种情况&#xff0c;当我们打开电脑之后&#xff0c;发现一直停留在一个界面&#xff1a;“配置Windows Update失败&#xff0c;还原更改请勿关闭计算机”&#xff0c;等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢&#xff0…...

    2022/11/19 21:16:58
  44. 如何在iPhone上关闭“请勿打扰”

    Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...

    2022/11/19 21:16:57