文章目录

    • 一、前言
    • 二、科普
    • 三、通往沙漠的入口: 神经元是什么,有什么用:
    • 四、茫茫大漠第一步: 激活函数是什么,有什么用
    • 五、沙漠中心的风暴:BP(Back Propagation)算法
        • 1. 神经网络的结构
        • 2.正反向传播过程
        • 3. BP算法推导与过程
        • 4. 结论
    • 六、沙漠的绿洲:代码实现
        • 1. 代码
        • 2. 结果晒图
    • 总结

一、前言

作为AI入门小白,参考了一些文章,想记点笔记加深印象,发出来是给有需求的童鞋学习共勉,大神轻拍!
【毒鸡汤】:算法这东西,读完之后的状态多半是 --> “我是谁,我在哪?” 没事的,吭哧吭哧学总能学会,毕竟还有千千万万个算法等着你。

  • 本文货很干,堪比沙哈拉大沙漠,自己挑的文章,含着泪也要读完!

二、科普

  • 生物上的神经元就是接收四面八方的刺激(输入),然后做出反应(输出),给它一点☀️就灿烂。
  • 仿生嘛,于是喜欢放飞自我的 某些人 就提出了人工神经网络。一切的基础–>人工神经单元,看图:

三、通往沙漠的入口: 神经元是什么,有什么用:

开始前,需要搞清楚一个很重要的问题:人工神经网络里的神经元是什么,有什么用。只有弄清楚这个问题,你才知道你在哪里,在做什么,要往哪里去。

首先,回顾一下神经元的结构,看下图, 我们先忽略激活函数不管:

没错,开始晒公式了!我们的数据都是离散的,为了看得更清楚点,所以换个表达方式,把离散的数据写成向量。该不会忘了向量是啥吧?回头致电问候一下当年的体育老师!
现在回答问题刚才的问题:

  • 一个神经元是什么:这就是一根直线。
  • 一个神经元有什么用:要说明用途就要给出一个应用场景:分类。一个神经元就是一条直线,相当于楚河汉界,可以把红棋绿棋分隔开,此时它就是个分类器。所以,在线性场景下,单个神经元能达到分类的作用,它总能学习到一条合适的直线,将两类元素区分出来。

先睹为快,看效果图,自己可以去玩:传送门

对上面的图简单说明一下:

  • (x1,x2)(x_1,x_2) 对于神经元的输入都是 x, 而对我们而言,这数据就是意义上的点的坐标,我们习惯写成 (x,y)。

    又要划重点了:


    我们需要对神经元的输出做判定,那么就需要有判定规则,通过判定规则后我们才能拿到我们想要的结果,这个规则就是:

    1. 📢假设,0代表红点,1代表蓝点(这些数据都是事先标定好的,在监督学习下,神经元会知道点是什么颜色并以这个已知结果作为标杆进行学习)
    2. 📢当神经元输出小于等于 0 时,最终结果输出为 0,这是个红点
    3. 📢 当神经元输出大于 1 时,最终结果输出为 1,这是个蓝点

上面提到的规则让我闻到了激活函数的味道!(这里只是线性场景,虽然不合适,但是简单起见,使用了单位阶跃函数来描述激活函数的功能)当 x<=0 时,y = 0; 当 x > 0 时,y=1

这是阶跃函数的长相:
此时神经元的长相:

四、茫茫大漠第一步: 激活函数是什么,有什么用

从上面的例子,其实已经说明了激活函数的作用;但是,我们通常面临的问题,不是简单的线性问题,不能用单位阶跃函数作为激活函数,原因是:

阶跃函数在x=0时不连续,即不可导,在非0处导数为0。用人话说就是它具备输出限定在[0-1],但是它不具备丝滑的特性,这个特性很重要。并且在非0处导数为0,也就是硬饱和,压根儿就没梯度可言,梯度也很重要,梯度意味着在神经元传播间是有反应的,而不是“死”了的。

接下来说明下,激活函数所具备的特性有什么,只挑重要的几点特性讲:

  • 非线性: 即导数不是常数,不然就退化成直线。对于一些画一条直线仍然无法分开的问题,非线性可以把直线掰弯,自从变弯以后,就能包罗万象了。
  • 几乎处处可导:也就是具备“丝滑的特性”,不要应激过度,要做正常人。数学上,处处可导为后面降到的后向传播算法(BP算法)提供了核心条件
  • 输出范围有限:一般是限定在[0,1],有限的输出范围使得神经元对于一些比较大的输入也会比较稳定。
  • 非饱和性:饱和就是指,当输入比较大的时候,输出几乎没变化了,那么会导致梯度消失!什么是梯度消失:就是你天天给女生送花,一开始妹纸还惊喜,到后来直接麻木没反应了。梯度消失带来的负面影响就是会限制了神经网络表达能力,词穷的感觉你有过么。sigmod,tanh函数都是软饱和的,阶跃函数是硬饱和。软是指输入趋于无穷大的时候输出无限接近上线,硬是指像阶跃函数那样,输入非0输出就已经始终都是上限值。数学表示我就懒得写了,传送门在此,里面有写到。如果激活函数是饱和的,带来的缺陷就是系统迭代更新变慢,系统收敛就慢,当然这是可以有办法弥补的,一种方法是使用交叉熵函数作为损失函数,这里不多说。ReLU是非饱和的,亲测效果挺不错,所以这货最近挺火的。
  • 单调性:即导数符号不变。导出要么一直大于0,要么一直小于0,不要上蹿下跳。导数符号不变,让神经网络训练容易收敛。

这里只说我们用到的激活函数:


求一下它的导数把,因为后面讲bp算法会直接套用它:
先祭出大杀器,高中数学之复合函数求导法则:
它的导数图像:

五、沙漠中心的风暴:BP(Back Propagation)算法

1. 神经网络的结构

经过上面的介绍,单个神经元不足以让人心动,唯有组成网络。神经网络是一种分层结构,一般由输入层,隐藏层,输出层组成。所以神经网络至少有3层,隐藏层多于1,总层数大于3的就是我们所说的深度学习了。

  • 输入层:就是接收原始数据,然后往隐层送
  • 输出层:神经网络的决策输出
  • 隐藏层:该层可以说是神经网络的关键,相当于对数据做一次特征提取。隐藏层的意义,是把前一层的向量变成新的向量。就是坐标变换,说人话就是把数据做平移,旋转,伸缩,扭曲,让数据变得线性可分。可能这个不那么好理解,举个栗子:
    下面的图左侧是原始数据,中间很多绿点,外围是很多红点,如果你是神经网络,你会怎么做呢?

    一种做法:把左图的平面看成一块布,把它缝合成一个闭合的包包(相当于数据变换到了一个3维坐标空间),然后把有绿色点的部分撸到顶部(伸缩和扭曲),然后外围的红色点自然在另一端了,要是姿势还不够帅,就挪挪位置(平移)。这时候干脆利落的砍一刀,绿点红点就彻底区分开了。
    重要的东西再说一遍:神经网络换着坐标空间玩数据,根据需要,可降维,可升维,可大,可小,可圆可扁,就是这么“无敌”

这个也可以自己去玩玩,直观的感受一下:传送门

2.正反向传播过程

看图,这是一个典型的三层神经网络结构,第一层是输入层,第二层是隐藏层,第三层是输出层。
PS:不同的应用场景,神经网络的结构要有针对性的设计,这里仅仅是为了推导算法和计算方便才采用这个简单的结构


我们一战士打靶,目标是训练战士能命中靶心成为神枪手作为场景:
我们手中有这样一些数据:一堆枪摆放的位置(x,y),以及射击结果,命中靶心和不命中靶心。
我们的目标是: 训练出一个神经网络模型,输入一个点的坐标,他就告诉你这个点是什么结果。
我们的方法是:训练一个能够根据误差不断自我调整的模型,训练模型的步骤是:

  • 正向传播:把点的坐标输入神经网络,然后开始一层一层的传播下去,直到输出层输出结果。
  • 反向传播(BP):就好比战士去靶场打靶,枪的摆放位置(输入),靶心(期望的输出)是已知。战士(神经网络)一开始的时候是这样做的,随便开一枪(w,b参数初始化称随机值),观察结果(这时候相当于进行一次正向传播)。然后发现,偏离八靶心左边,应该往右边打。所以战士开始根据偏离靶心的距离(误差,也称为损失)调整了射击方向往右边一点(这时候完成一次反向的传播)。
  • 当完成一次正反向传播,也就完成一次神经网络的训练迭代,反复调整射击角度(反复迭代),误差越来越小,战士打的越来越准,神枪手模型也就诞生了。

3. BP算法推导与过程

  • 参数初始化:
    在这里插入图片描述
    、

  • 正向传播
    1.输入–>隐层
    📌计算隐层神经元h1h_1的输入加权和:

    📌计算隐层神经元h1h_1的输出,需要通过激活函数Sigmoid:

    同理,计算出隐层神经元h2h_2的输出:

    2.隐层–>输出层:
    📌 计算输出层神经元o1o_1的输出加权和:


    📌 计算输出层神经元o1o_1的输出:

    📌 同理,计算输出层神经元o2o_2的输出:

正向传播结束,我们看看输出层的输出结果:[0.7987314002,0.8374488853],但是我们希望它能输出[0.01, 0.99],所以明显的差太远了,这个时候我们就需要利用反向传播,更新权值w,然后重新计算输出。

  • 反向传播
    1.计算输出误差:

    PS: 这里我要说的是,用这个作为误差的计算,因为它简单,实际上用的时候效果不咋滴。【原因上文我提过了】:我在第四章节说激活函数作用时,提到激活函数应具备“非饱和性”。如果激活函数是饱和的,带来的缺陷就是系统迭代更新变慢,系统收敛就慢,当然这是可以有办法弥补的,一种方法是使用交叉熵函数作为损失函数

    交叉熵做为代价函数能达到上面说的优化系统收敛下欧工,是因为它在计算误差对输入的梯度时,抵消掉了激活函数的导数项,从而避免了因为激活函数的“饱和性”给系统带来的负面影响。如果想了解更详细的证明可以点 --> 传送门

    在这里插入图片描述
    对输出的偏导数:

    2.隐层–>输出层的权值及偏置b的更新:
    📌先放出链式求导法则

    📌以更新w5举例
    我们知道,权重w的大小能直接影响输出,w不合适那么会使得输出误差。要想知道某一个w值对误差影响的程度,可以用误差对该w的变化率来表达。如果w的一点点变动,就会导致误差增大很多,说明这个w对误差影响的程度就更大,也就是说,误差对该w的变化率越高。而误差对w的变化率就是误差对w的偏导。

    所以,看下图,总误差的大小首先受输出层神经元O1的输出影响,继续反推,O1的输出受它自己的输入的影响,而它自己的输入会受到w5的影响。这就是连锁反应,从结果找根因。

    那么,根据链式法则则有:
    挨个计算:


激活函数的导数看公式(4.5):



所以:


归纳:


同理,更新输出层偏置b如下:

有个学习率的东西,学习率取个0.5。关于学习率,不能过高也不能过低。因为训练神经网络系统的过程,就是通过不断的迭代,找到让系统输出误差最小的参数的过程。每一次迭代都经过反向传播进行梯度下降,然而误差空间不是一个滑梯,一降到底,常规情况下就像坑洼的山地。学习率太小,那就很容易陷入局部最优,就是你认为的最低点并不是整个空间的最低点。如果学习率太高,那系统可能难以收敛,会在一个地方上串下跳,无法对准目标(目标是指误差空间的最低点),可以看图:

xy轴是权值w平面,z轴是输出总误差。整个误差曲面可以看到两个明显的低点,显然右边最低,属于全局最优。而左边的是次低,从局部范围看,属于局部最优。而图中,在给定初始点的情况下,标出的两条抵达低点的路线,已经是很理想情况的梯度下降路径。

现在可以更新w5的值,就设定学习率为0.5:

归纳输出层w更新的公式:

同理,可以计算出w6,w7,w8的更新值。


同理,可以更新偏置b:

归纳一下输出层w更新的公式:

3. 输入层–>隐层的权值及偏置b更新:

📌以更新w1为例:
仔细观察,我们在求w5的更新,误差反向传递路径输出层–>隐层,即out(O1)–>in(O1)–>w5,总误差只有一根线能传回来。但是求w1时,误差反向传递路径是隐藏层–>输入层,但是隐藏层的神经元是有2根线的,所以总误差沿着2个路径回来,也就是说,计算偏导时,要分开来算。看图:
那么,现在开始算总误差对w1的偏导:


3.1 现在先算

也就是:


挨个就算:


计算左边部分,参考式子(5.7)(5.8)(5.9):


计算右边式子:


所以:


同理:


所以(3.19)得值为:

3.2 然后计算:

3.3 最后计算:

最后三者相乘:

归纳一下式子:

现在,可以更新w1的值了:

4. 结论

我们通过亲力亲为的计算,走过了正向传播,也体会了反向传播,完成了一次训练(迭代)。随着迭代加深,输出层的误差会越来越小,专业点说就是系统趋于收敛。来一张系统误差随迭代次数变化的图来表明我刚才说描述:

六、沙漠的绿洲:代码实现

1. 代码

其实已经有很多机器学习的框架可以很简单的实现神经网络。但是我们的目标是:在看懂算法之后,我们是否能照着算法的整个过程,去实现一遍,可以加深对算法原理的理解,以及对算法实现思路的的理解。顺便先打个call,numpy这个库,你值得拥有!

  • 代码实现如下。代码里已经做了尽量啰嗦的注释,关键实现的地方对标了公式的编号,如果看的不明白的地方多回来啃一下算法推导。对应代码也传到了github上。
  • 代码能自己定义神经网络的结构,支持深度网络。代码实现了对红蓝颜色的点做分类的模型训练,通过3层网络结构,改变隐藏层的神经元个数,通过图形显示隐藏层神经元数量对问题的解释能力。
  • 代码中还实现了不同激活函数。隐藏层可以根据需要换着激活函数玩输出层一般就用sigmoid,当然想换也随你喜欢~
#coding:utf-8
import h5py
import sklearn.datasets
import sklearn.linear_model
import matplotlib
import matplotlib.font_manager as fm
import matplotlib.pyplot as plt
import numpy as npnp.random.seed(1)font = fm.FontProperties(fname='/System/Library/Fonts/STHeiti Light.ttc')
matplotlib.rcParams['figure.figsize'] = (10.0, 8.0)def sigmoid(input_sum):"""函数:激活函数Sigmoid输入:input_sum: 输入,即神经元的加权和返回:output: 激活后的输出input_sum: 把输入缓存起来返回"""output = 1.0/(1+np.exp(-input_sum))return output, input_sumdef sigmoid_back_propagation(derror_wrt_output, input_sum):"""函数:误差关于神经元输入的偏导: dE/dIn = dE/dOut * dOut/dIn  参照式(5.6)其中: dOut/dIn 就是激活函数的导数 dy=y(1 - y),见式(5.9)dE/dOut 误差对神经元输出的偏导,见式(5.8)输入:derror_wrt_output:误差关于神经元输出的偏导: dE/dyⱼ = 1/2(d(expect_to_output - output)**2/doutput) = -(expect_to_output - output)input_sum: 输入加权和返回:derror_wrt_dinputs: 误差关于输入的偏导,见式(5.13)"""output = 1.0/(1 + np.exp(- input_sum))doutput_wrt_dinput = output * (1 - output)derror_wrt_dinput =  derror_wrt_output * doutput_wrt_dinputreturn derror_wrt_dinputdef relu(input_sum):"""函数:激活函数ReLU输入:input_sum: 输入,即神经元的加权和返回:outputs: 激活后的输出input_sum: 把输入缓存起来返回"""output = np.maximum(0, input_sum)return output, input_sumdef relu_back_propagation(derror_wrt_output, input_sum):"""函数:误差关于神经元输入的偏导: dE/dIn = dE/dOut * dOut/dIn其中: dOut/dIn 就是激活函数的导数dE/dOut 误差对神经元输出的偏导输入:derror_wrt_output:误差关于神经元输出的偏导input_sum: 输入加权和返回:derror_wrt_dinputs: 误差关于输入的偏导"""derror_wrt_dinputs = np.array(derror_wrt_output, copy=True)derror_wrt_dinputs[input_sum <= 0] = 0return derror_wrt_dinputsdef tanh(input_sum):"""函数:激活函数 tanh输入:input_sum: 输入,即神经元的加权和返回:output: 激活后的输出input_sum: 把输入缓存起来返回"""output = np.tanh(input_sum)return output, input_sumdef tanh_back_propagation(derror_wrt_output, input_sum):"""函数:误差关于神经元输入的偏导: dE/dIn = dE/dOut * dOut/dIn其中: dOut/dIn 就是激活函数的导数 tanh'(x) = 1 - x²dE/dOut 误差对神经元输出的偏导输入:derror_wrt_output:误差关于神经元输出的偏导: dE/dyⱼ = 1/2(d(expect_to_output - output)**2/doutput) = -(expect_to_output - output)input_sum: 输入加权和返回:derror_wrt_dinputs: 误差关于输入的偏导"""output = np.tanh(input_sum)doutput_wrt_dinput = 1 - np.power(output, 2)derror_wrt_dinput =  derror_wrt_output * doutput_wrt_dinputreturn derror_wrt_dinputdef activated(activation_choose, input):"""把正向激活包装一下"""if activation_choose == "sigmoid":return sigmoid(input)elif activation_choose == "relu":return relu(input)elif activation_choose == "tanh":return tanh(input)return sigmoid(input)def activated_back_propagation(activation_choose, derror_wrt_output, output):"""包装反向激活传播"""if activation_choose == "sigmoid":return sigmoid_back_propagation(derror_wrt_output, output)elif activation_choose == "relu":return relu_back_propagation(derror_wrt_output, output)elif activation_choose == "tanh":return tanh_back_propagation(derror_wrt_output, output)return sigmoid_back_propagation(derror_wrt_output, output)class NeuralNetwork:def __init__(self, layers_strcuture, print_cost = False):self.layers_strcuture = layers_strcutureself.layers_num = len(layers_strcuture)# 除掉输入层的网络层数,因为其他层才是真正的神经元层self.param_layers_num = self.layers_num - 1self.learning_rate = 0.0618self.num_iterations = 2000self.x = Noneself.y = Noneself.w = dict()self.b = dict()self.costs = []self.print_cost = print_costself.init_w_and_b()def set_learning_rate(self, learning_rate):"""设置学习率"""self.learning_rate = learning_ratedef set_num_iterations(self, num_iterations):"""设置迭代次数"""self.num_iterations = num_iterationsdef set_xy(self, input, expected_output):"""设置神经网络的输入和期望的输出"""self.x = inputself.y = expected_outputdef init_w_and_b(self):"""函数:初始化神经网络所有参数输入:layers_strcuture: 神经网络的结构,例如[2,4,3,1],4层结构:第0层输入层接收2个数据,第1层隐藏层4个神经元,第2层隐藏层3个神经元,第3层输出层1个神经元返回: 神经网络各层参数的索引表,用来定位权值 wᵢ  和偏置 bᵢ,i为网络层编号"""np.random.seed(3)# 当前神经元层的权值为 n_i x n_(i-1)的矩阵,i为网络层编号,n为下标i代表的网络层的节点个数# 例如[2,4,3,1],4层结构:第0层输入层为2,那么第1层隐藏层神经元个数为4# 那么第1层的权值w是一个 4x2 的矩阵,如:#    w1 = array([ [-0.96927756, -0.59273074],#                 [ 0.58227367,  0.45993021],#                 [-0.02270222,  0.13577601],#                 [-0.07912066, -1.49802751] ])# 当前层的偏置一般给0就行,偏置是个1xnᵢ的矩阵,nᵢ为第i层的节点个数,例如第1层为4个节点,那么:#    b1 = array([ 0.,  0.,  0.,  0.])for l in range(1, self.layers_num):self.w["w" + str(l)] = np.random.randn(self.layers_strcuture[l], self.layers_strcuture[l-1])/np.sqrt(self.layers_strcuture[l-1])self.b["b" + str(l)] = np.zeros((self.layers_strcuture[l], 1))return self.w, self.bdef layer_activation_forward(self, x, w, b, activation_choose):"""函数:网络层的正向传播输入:x: 当前网络层输入(即上一层的输出),一般是所有训练数据,即输入矩阵w: 当前网络层的权值矩阵b: 当前网络层的偏置矩阵activation_choose: 选择激活函数 "sigmoid", "relu", "tanh"返回:output: 网络层的激活输出cache: 缓存该网络层的信息,供后续使用: (x, w, b, input_sum) -> cache"""# 对输入求加权和,见式(5.1)input_sum = np.dot(w, x) + b# 对输入加权和进行激活输出output, _ = activated(activation_choose, input_sum)return output, (x, w, b, input_sum)def forward_propagation(self, x):"""函数:神经网络的正向传播输入:返回:output: 正向传播完成后的输出层的输出caches: 正向传播过程中缓存每一个网络层的信息: (x, w, b, input_sum),... -> caches"""caches = []#作为输入层,输出 = 输入output_prev = x#第0层为输入层,只负责观察到输入的数据,并不需要处理,正向传播从第1层开始,一直到输出层输出为止# range(1, n) => [1, 2, ..., n-1]L = self.param_layers_numfor l in range(1, L):# 当前网络层的输入来自前一层的输出input_cur = output_prevoutput_prev, cache = self.layer_activation_forward(input_cur, self.w["w"+ str(l)], self.b["b" + str(l)], "tanh")caches.append(cache)output, cache = self.layer_activation_forward(output_prev, self.w["w" + str(L)], self.b["b" + str(L)], "sigmoid")caches.append(cache)return output, cachesdef show_caches(self, caches):"""显示网络层的缓存参数信息"""i = 1for cache in caches:print("%dtd Layer" % i)print(" input: %s" % cache[0])print(" w: %s" % cache[1])print(" b: %s" % cache[2])print(" input_sum: %s" % cache[3])print("----------")i += 1def compute_error(self, output):"""函数:计算档次迭代的输出总误差输入:返回:"""m = self.y.shape[1]# 计算误差,见式(5.5): E = Σ1/2(期望输出-实际输出)²#error = np.sum(0.5 * (self.y - output) ** 2) / m# 交叉熵作为误差函数error =  -np.sum(np.multiply(np.log(output),self.y) + np.multiply(np.log(1 - output), 1 - self.y)) / merror = np.squeeze(error)return errordef layer_activation_backward(self, derror_wrt_output, cache, activation_choose):"""函数:网络层的反向传播输入:derror_wrt_output: 误差关于输出的偏导cache: 网络层的缓存信息 (x, w, b, input_sum)activation_choose: 选择激活函数 "sigmoid", "relu", "tanh"返回: 梯度信息,即derror_wrt_output_prev: 反向传播到上一层的误差关于输出的梯度derror_wrt_dw: 误差关于权值的梯度derror_wrt_db: 误差关于偏置的梯度"""input, w, b, input_sum = cacheoutput_prev = input     # 上一层的输出 = 当前层的输入; 注意是'输入'不是输入的加权和(input_sum)m = output_prev.shape[1]      # m是输入的样本数量,我们要取均值,所以下面的求值要除以m# 实现式(5.13)-> 误差关于权值w的偏导数derror_wrt_dinput = activated_back_propagation(activation_choose, derror_wrt_output, input_sum)derror_wrt_dw = np.dot(derror_wrt_dinput, output_prev.T) / m# 实现式 (5.32)-> 误差关于偏置b的偏导数derror_wrt_db = np.sum(derror_wrt_dinput, axis=1, keepdims=True)/m# 为反向传播到上一层提供误差传递,见式(5.28)的 (Σδ·w) 部分derror_wrt_output_prev = np.dot(w.T, derror_wrt_dinput)return derror_wrt_output_prev, derror_wrt_dw, derror_wrt_dbdef back_propagation(self, output, caches):"""函数:神经网络的反向传播输入:output:神经网络输caches:所有网络层(输入层不算)的缓存参数信息  [(x, w, b, input_sum), ...]返回:grads: 返回当前迭代的梯度信息"""grads = {}L = self.param_layers_num #output = output.reshape(output.shape)  # 把输出层输出输出重构成和期望输出一样的结构expected_output = self.y# 见式(5.8)#derror_wrt_output = -(expected_output - output)# 交叉熵作为误差函数derror_wrt_output = - (np.divide(expected_output, output) - np.divide(1 - expected_output, 1 - output))# 反向传播:输出层 -> 隐藏层,得到梯度:见式(5.8), (5.13), (5.15)current_cache = caches[L - 1] # 取最后一层,即输出层的参数信息grads["derror_wrt_output" + str(L)], grads["derror_wrt_dw" + str(L)], grads["derror_wrt_db" + str(L)] = \self.layer_activation_backward(derror_wrt_output, current_cache, "sigmoid")# 反向传播:隐藏层 -> 隐藏层,得到梯度:见式 (5.28)的(Σδ·w), (5.28), (5.32)for l in reversed(range(L - 1)):current_cache = caches[l]derror_wrt_output_prev_temp, derror_wrt_dw_temp, derror_wrt_db_temp = \self.layer_activation_backward(grads["derror_wrt_output" + str(l + 2)], current_cache, "tanh")grads["derror_wrt_output" + str(l + 1)] = derror_wrt_output_prev_tempgrads["derror_wrt_dw" + str(l + 1)] = derror_wrt_dw_tempgrads["derror_wrt_db" + str(l + 1)] = derror_wrt_db_tempreturn gradsdef update_w_and_b(self, grads):"""函数:根据梯度信息更新w,b输入:grads:当前迭代的梯度信息返回:"""# 权值w和偏置b的更新,见式:(5.16),(5.18)for l in range(self.param_layers_num):self.w["w" + str(l + 1)] = self.w["w" + str(l + 1)] - self.learning_rate * grads["derror_wrt_dw" + str(l + 1)]self.b["b" + str(l + 1)] = self.b["b" + str(l + 1)] - self.learning_rate * grads["derror_wrt_db" + str(l + 1)]def training_modle(self):"""训练神经网络模型"""np.random.seed(5)for i in range(0, self.num_iterations):# 正向传播,得到网络输出,以及每一层的参数信息output, caches = self.forward_propagation(self.x)# 计算网络输出误差cost = self.compute_error(output)# 反向传播,得到梯度信息grads = self.back_propagation(output, caches)# 根据梯度信息,更新权值w和偏置bself.update_w_and_b(grads)# 当次迭代结束,打印误差信息if self.print_cost and i % 1000 == 0:print ("Cost after iteration %i: %f" % (i, cost))if self.print_cost and i % 1000 == 0:self.costs.append(cost)# 模型训练完后显示误差曲线if False:plt.plot(np.squeeze(self.costs))plt.ylabel(u'神经网络误差', fontproperties = font)plt.xlabel(u'迭代次数 (*100)', fontproperties = font)plt.title(u"学习率 =" + str(self.learning_rate), fontproperties = font)plt.show()return self.w, self.bdef predict_by_modle(self, x):"""使用训练好的模型(即最后求得w,b参数)来决策输入的样本的结果"""output, _ = self.forward_propagation(x.T)output = output.Tresult = output / np.sum(output, axis=1, keepdims=True)return np.argmax(result, axis=1)def plot_decision_boundary(xy, colors, pred_func):# xy是坐标点的集合,把集合的范围算出来# 加减0.5相当于扩大画布的范围,不然画出来的图坐标点会落在图的边缘,逼死强迫症患者x_min, x_max = xy[:, 0].min() - 0.5, xy[:, 0].max() + 0.5y_min, y_max = xy[:, 1].min() - 0.5, xy[:, 1].max() + 0.5# 以h为分辨率,生成采样点的网格,就像一张网覆盖所有颜色点h = .01xx, yy = np.meshgrid(np.arange(x_min, x_max, h), np.arange(y_min, y_max, h))# 把网格点集合作为输入到模型,也就是预测这个采样点是什么颜色的点,从而得到一个决策面Z = pred_func(np.c_[xx.ravel(), yy.ravel()])Z = Z.reshape(xx.shape)# 利用等高线,把预测的结果画出来,效果上就是画出红蓝点的分界线plt.contourf(xx, yy, Z, cmap=plt.cm.Spectral)# 训练用的红蓝点点也画出来plt.scatter(xy[:, 0], xy[:, 1], c=colors, marker='o', cmap=plt.cm.Spectral, edgecolors='black')if __name__ == "__main__":plt.figure(figsize=(16, 32))# 用sklearn的数据样本集,产生2种颜色的坐标点,noise是噪声系数,噪声越大,2种颜色的点分布越凌乱xy, colors = sklearn.datasets.make_moons(60, noise=1.0)# 因为点的颜色是1bit,我们设计一个神经网络,输出层有2个神经元。# 标定输出[1,0]为红色点,输出[0,1]为蓝色点expect_output = []for c in colors:if c == 1:expect_output.append([0,1])else:expect_output.append([1,0])expect_output = np.array(expect_output).T# 设计3层网络,改变隐藏层神经元的个数,观察神经网络分类红蓝点的效果hidden_layer_neuron_num_list = [1,2,4,10,20,50]for i, hidden_layer_neuron_num in enumerate(hidden_layer_neuron_num_list):plt.subplot(5, 2, i + 1)plt.title(u'隐藏层神经元数量: %d' % hidden_layer_neuron_num, fontproperties = font)nn = NeuralNetwork([2, hidden_layer_neuron_num, 2], True)# 输出和输入层都是2个节点,所以输入和输出的数据集合都要是 nx2的矩阵nn.set_xy(xy.T, expect_output)nn.set_num_iterations(30000)nn.set_learning_rate(0.1)w, b = nn.training_modle()plot_decision_boundary(xy, colors, nn.predict_by_modle)plt.show()

2. 结果晒图

关于误差曲线(这里只举其中一个栗子):

  • 通过看误差曲线,可以从一定程度上判定网络的效果,模型训练是否能收敛,收敛程度如何,都可以从误差曲线对梯度下降的过程能见一二。

    3层网络的结构下,隐藏层只有一层,看图说明一下隐藏层神经元个数变化对神经网络表达能力的影响:

  • 当隐藏层只有1个神经元:就像文章刚开始说的,一个神经元,就是个线性分类器,表达能力就一条直线而已,见式(3.6)

  • 2个神经元:线开始有点弯曲了,但是这次结果一点都不明显,尴尬。但从原理上神经网络开始具备了非线性表达能力

  • 随着隐藏层神经元个数不断增加,神经网络表达能力越来越强,分类的效果越来越好。当然也不是神经元越多越好,可以开始考虑深度网络是不是效果更好一些。

总结

记住一点,bp神经网络是其他各种神经网络中最简单的一种。只有学会了它,才能以此为基础展开对其他更复杂的神经网络的学习。
虽然推导了并实现了算法,但是仍然是有很多疑问,这里就作为抛砖引玉吧:

  • 神经网络的结构,即几层网络,输入输出怎么设计才最有效?
  • 数学理论证明,三层的神经网络就能够以任意精度逼近任何非线性连续函数。那么为什么还需要有深度网络?
  • 在不同应用场合下,激活函数怎么选择?
  • 学习率怎么怎么选择?
  • 训练次数设定多少训练出的模型效果更好?
查看全文
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

相关文章

  1. 如何在MySQL中进行FULL OUTER JOIN?

    我想在MySQL中进行完全外部联接。 这可能吗? MySQL是否支持完全外部联接? #1楼在SQLite中,您应该这样做: SELECT * FROM leftTable lt LEFT JOIN rightTable rt ON lt.id = rt.lrid UNION SELECT lt.*, rl.* -- To match column set FROM rightTable rt LEFT JOIN …...

    2024/3/29 11:59:03
  2. cnbloger: 范振勇, 虚拟机上安装centos8.0[(vmware-15-pro)]

    If the author of the article is not allowed to reprint, this article will be deleted 虚拟机上安装centos8.0: https://www.cnblogs.com/fanzhenyong/p/11616192.html 虚拟机上安装centos8.0 目录 一、准备宿主机 1.1、准备安装包 1.2、配置网络 1.2.1 查看NAT设置 1.2.2…...

    2024/4/23 8:46:28
  3. 基础JS

    基础JavaScript知识,觉得比较特别的就整理下来,以供日后查询,内容如下: Part One indexOf:正序查找该字符串 lastIndexOf:逆序查找该字符串 match:用正则表达式查询匹配的字符串 replace:用正则表达式替换匹配的字符串 substring:自定义范围复制字符串 slice:自定义范…...

    2024/4/24 18:53:43
  4. Java怎么实现在Frame窗口没有焦点的时候仍能捕获鼠标事件?

    具体是:给按钮控件添加事件监听器,在监听器中使用for循环和Robot类去自动多次粘贴并发送QQ消息,自动发送的时候焦点当然在QQ聊天窗口上。 我想实现的是当我主动移动鼠标的时候,会检测到鼠标坐标移动,然后中止循环,停止自动发送。 而实际情况是,循环总是没办法主动去中止…...

    2024/3/29 11:58:59
  5. 正向代理和反向代理有什么区别(通俗易懂)

    正向代理:在客户端(浏览器)配置代理服务器,通过代理服务器进行互联网访问.正向代理:当客户端无法访问外部资源的时候(比如墙这样的原因),可以通过一个正向代理去间接地访问,所以客户端需要配置代理服务器的ip.客户端知道正向代理服务器的ip.客户端和正向代理服务器处在同…...

    2024/5/3 17:19:23
  6. 2019-2020

    2020年终于来到了,但是在到来的今天却没有小说中所说的我们汽车可以在空中行驶、机器人管家会为你打理一切也没有哆啦A梦那折叠了空间的任意门,有点小失落,但是不管怎么样日子还是要过的。知识还是要学的。回顾2019年发现这一年过的是又快又忙,上半年的自考,作品展,专业课…...

    2024/3/29 8:03:31
  7. 团队管理中的积分以及信用点机制

    背景 最近一直在考虑怎么将团队管理与积分结合起来的也许是个不错的主意,所以把一些想法记录在这。信用点与积分体系 我们这里所说的信用点其实就是指的是组织发放给团队成员非金钱的可以定量的抵押物或是代币,主要用来激活团队活力,引导团队行为和文化。信用点的用法每位成…...

    2024/4/27 15:06:18
  8. 5G时代来临 千亿体育如何打造智慧体育

    2013年2月,当4G通信刚刚正式开始推进商用,欧盟就已经宣布,将拨款5000万欧元,加快5G通信技术的发展,并将2020年定为5G商用的元年。工信部也在此前发布的《信息通信行业发展规划(2016-2020年)》明确提出,2020年启动5G商用服务,标志着5G时代,距离我们已经只有不到一年的…...

    2024/3/28 20:05:42
  9. 常用NGINX配置指令翻译

    Corertmp语法: rtmp {…} 上下文: root 包含所有RTMP设置的块server语法: server {…} 上下文: rtmp 声明RTMP服务器实例rtmp {server {} }listen语法: isten (addr[:port]|port|unix:path) [bind] [ipv6only=on|off] so_keepalive=on|off|keepidle:keepintvl:keepcnt|proxy_pr…...

    2024/4/25 8:04:31
  10. 2018 IJCAI之图像识别:Visible thermal person re-identification via dual-constrained top-ranking

    Visible thermal person re-identification via dual-constrained top-ranking 简述: 本文是通过RGBT双重约束对人进行重新识别(Re-Identification),如下图:跨镜追踪(Person Re-Identification,简称 ReID)技术: 现在计算机视觉研究的热门方向,主要解决跨摄像头跨场景…...

    2024/3/29 8:03:28
  11. 上去很美的 Serverless 在中国落地的怎么样了?

    说起当前最火的技术,不得不提的一个概念就是 Serverless。2019 年几乎所有人都在说 Serverless,实际落地 Serverless 的有多少?Serverless 作为一种新型的互联网架构,直接或间接推动了云计算的发展,从 AWS Lambda 到阿里云函数计算,Serverless 一路高歌,同时基于 Server…...

    2024/3/29 8:03:26
  12. 使用 ngrok 实现内网穿透

    1.内网穿透? 1.1 什么是内网穿透 作为一个开发者,我们想让自己的程序能被其他人访问,但是由于要访问的人和我们程序部署的环境不在同一局域网下,导致我们的程序不能被其他人访问,这时候我们就需要内网穿透,将我们的网络设置成其他人可访问的状态了。 简单来说内网穿透的目…...

    2024/3/29 8:03:26
  13. 如何保护Python代码?

    我正在用Python开发一款软件,该软件将分发给我的雇主的客户。 我的雇主希望通过限时许可文件来限制软件的使用。 如果我们分发.py文件甚至.pyc文件,则很容易(反编译和)删除检查许可证文件的代码。 另一个方面是,我的雇主不希望我们的客户阅读该代码,因为担心该代码可能…...

    2024/3/29 8:03:27
  14. 2019年我是如何从学渣进大厂的

    我已经毕业好多年了,现在也算有一份收入不错的工作—— Java 攻城狮(俗称程序员,对,就是经常被调侃的那个职业)。我是怎么一步步踏上这条攻城之路的呢? 这个要从高考选专业开始说起,说来不怕你们笑话,其实我是稀里糊涂选了计算机应用专业的。那时候并不知道,计算机专业…...

    2024/3/29 11:58:57
  15. 2019年自我总结

    前言 时间过得很快,转眼间已经大二了,这个学期只有短短的十八周时间,使我一直忙碌与各种考试,各种课程,对自己所想学的东西一直止步与初学的状态,并且很多计划都没有得到实施。所以2019年让我感到很惭愧。现在2020年已经悄悄的来到,我开始更新了计划,希望在新的一年我的…...

    2024/4/27 13:13:08
  16. 基于Netty的联机版坦克大战

    基于Netty的联机版坦克大战 项目介绍 项目github地址:基于Netty的联机版坦克大战 该项目实现了联机版坦克大战,项目包括客户端与服务端 项目使用技术:使用Netty实现客户端和服务端之间的通讯 使用Marshalling作为编解码技术 游戏界面使用java自带的swing与awt进行编写 使用S…...

    2024/4/24 7:59:13
  17. 【金三银四】深入理解Mysql索引底层数据结构解密

    索引优化面试题 案例 CREATE TABLE `employees` (`id` int(11) NOT NULL AUTO_INCREMENT,`name` varchar(24) NOT NULL DEFAULT COMMENT 姓名,`age` int(11) NOT NULL DEFAULT 0 COMMENT 年龄,`position` varchar(20) NOT NULL DEFAULT COMMENT 职位,`hire_time` timestamp N…...

    2024/4/21 0:27:12
  18. LeetCode0035搜索插入位置

    题目描述java代码 class Solution {public int searchInsert(int[] nums, int target) {for(int i=0;i<nums.length;i++){if(nums[i]>=target){return i;}}return nums.length;} }二分法 class Solution {public int searchInsert(int[] nums, int target) {int left=0,r…...

    2024/3/29 11:58:53
  19. 我们为什么很难坚持下去

    前言很长一段时间里,我都在寻找对自己的定位,也许别人对你也有一个定位,但是我想自己对自己的定位大于其他。前不久,我终于找到了我对自己的描述 “一个有些偏执的人“。 不知不觉已经过去两个多月了,本来想写一篇技术文章的,但最后还是决定写下此篇。由衷感谢各位对上一…...

    2024/3/29 11:58:53
  20. LinearGradient

    线性渲染: public class LinearGradient extends Shader {private static final int TYPE_COLORS_AND_POSITIONS = 1;private static final int TYPE_COLOR_START_AND_COLOR_END = 2;/*** 线性渲染的类型:可以是TYPE_COLORS_AND_POSITIONS类型,* 也可以是TYPE_COLOR_START_A…...

    2024/4/12 4:39:03

最新文章

  1. Deep Learning Part Five RNNLM的学习和评价-24.4.30

    准备好RNNLM所需要的层&#xff0c;我们现在来实现RNNLM&#xff0c;并对其进行训练&#xff0c;然后再评价一下它的结果的。 5.5.1 RNNLM的实现 这里我们将RNNLM使用的网络实现为SimpleRnnlm类&#xff0c;其层结构如下&#xff1a; 如图 5-30 所示&#xff0c;SimpleRnnlm …...

    2024/5/3 19:36:04
  2. 梯度消失和梯度爆炸的一些处理方法

    在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言&#xff0c;在此感激不尽。 权重和梯度的更新公式如下&#xff1a; w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...

    2024/3/20 10:50:27
  3. ModStartCMS(支持Laravel 9)v8.3.0

    ModStart 是一个基于 Laravel 模块化极速开发框架。模块市场拥有丰富的功能应用&#xff0c;支持后台一键快速安装&#xff0c;让开发者能快的实现业务功能开发。 系统完全开源&#xff0c;基于 Apache 2.0 开源协议&#xff0c;免费且不限制商业使用。 功能特性 丰富的模块市…...

    2024/4/30 16:39:40
  4. Jmeter02-1:参数化组件CVS

    目录 1、Jmeter组件&#xff1a;参数化概述 1.1 是什么&#xff1f; 1.2 为什么&#xff1f; 1.3 怎么用&#xff1f; 2、Jmeter组件&#xff1a;参数化实现之CSV Data Set Config(重点中重点) 2.1 是什么&#xff1f; 2.2 为什么&#xff1f; 2.3 怎么用&#xff1f; …...

    2024/5/1 13:53:24
  5. 基于8086贪吃蛇游戏系统方恨设计

    **单片机设计介绍&#xff0c;基于8086贪吃蛇游戏系统方恨设计 文章目录 一 概要二、功能设计三、 软件设计原理图 五、 程序六、 文章目录 一 概要 基于8086的贪吃蛇游戏系统设计是一个结合了微处理器控制、游戏逻辑以及图形显示技术的综合性项目。该系统旨在通过8086微处理器…...

    2024/5/1 14:13:57
  6. 【外汇早评】美通胀数据走低,美元调整

    原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...

    2024/5/1 17:30:59
  7. 【原油贵金属周评】原油多头拥挤,价格调整

    原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...

    2024/5/2 16:16:39
  8. 【外汇周评】靓丽非农不及疲软通胀影响

    原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...

    2024/4/29 2:29:43
  9. 【原油贵金属早评】库存继续增加,油价收跌

    原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...

    2024/5/2 9:28:15
  10. 【外汇早评】日本央行会议纪要不改日元强势

    原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...

    2024/4/27 17:58:04
  11. 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响

    原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...

    2024/4/27 14:22:49
  12. 【外汇早评】美欲与伊朗重谈协议

    原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...

    2024/4/28 1:28:33
  13. 【原油贵金属早评】波动率飙升,市场情绪动荡

    原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...

    2024/4/30 9:43:09
  14. 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试

    原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...

    2024/4/27 17:59:30
  15. 【原油贵金属早评】市场情绪继续恶化,黄金上破

    原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...

    2024/5/2 15:04:34
  16. 【外汇早评】美伊僵持,风险情绪继续升温

    原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...

    2024/4/28 1:34:08
  17. 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势

    原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...

    2024/4/26 19:03:37
  18. 氧生福地 玩美北湖(上)——为时光守候两千年

    原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...

    2024/4/29 20:46:55
  19. 氧生福地 玩美北湖(中)——永春梯田里的美与鲜

    原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...

    2024/4/30 22:21:04
  20. 氧生福地 玩美北湖(下)——奔跑吧骚年!

    原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...

    2024/5/1 4:32:01
  21. 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!

    原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...

    2024/4/27 23:24:42
  22. 「发现」铁皮石斛仙草之神奇功效用于医用面膜

    原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...

    2024/4/28 5:48:52
  23. 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者

    原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...

    2024/4/30 9:42:22
  24. 广州械字号面膜生产厂家OEM/ODM4项须知!

    原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...

    2024/5/2 9:07:46
  25. 械字号医用眼膜缓解用眼过度到底有无作用?

    原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...

    2024/4/30 9:42:49
  26. 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...

    解析如下&#xff1a;1、长按电脑电源键直至关机&#xff0c;然后再按一次电源健重启电脑&#xff0c;按F8健进入安全模式2、安全模式下进入Windows系统桌面后&#xff0c;按住“winR”打开运行窗口&#xff0c;输入“services.msc”打开服务设置3、在服务界面&#xff0c;选中…...

    2022/11/19 21:17:18
  27. 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。

    %读入6幅图像&#xff08;每一幅图像的大小是564*564&#xff09; f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...

    2022/11/19 21:17:16
  28. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...

    win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面&#xff0c;在等待界面中我们需要等待操作结束才能关机&#xff0c;虽然这比较麻烦&#xff0c;但是对系统进行配置和升级…...

    2022/11/19 21:17:15
  29. 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...

    有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows&#xff0c;请勿关闭计算机”的提示&#xff0c;要过很久才能进入系统&#xff0c;有的用户甚至几个小时也无法进入&#xff0c;下面就教大家这个问题的解决方法。第一种方法&#xff1a;我们首先在左下角的“开始…...

    2022/11/19 21:17:14
  30. win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...

    置信有很多用户都跟小编一样遇到过这样的问题&#xff0c;电脑时发现开机屏幕显现“正在配置Windows Update&#xff0c;请勿关机”(如下图所示)&#xff0c;而且还需求等大约5分钟才干进入系统。这是怎样回事呢&#xff1f;一切都是正常操作的&#xff0c;为什么开时机呈现“正…...

    2022/11/19 21:17:13
  31. 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...

    Win7系统开机启动时总是出现“配置Windows请勿关机”的提示&#xff0c;没过几秒后电脑自动重启&#xff0c;每次开机都这样无法进入系统&#xff0c;此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一&#xff1a;开机按下F8&#xff0c;在出现的Windows高级启动选…...

    2022/11/19 21:17:12
  32. 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...

    有不少windows10系统用户反映说碰到这样一个情况&#xff0c;就是电脑提示正在准备windows请勿关闭计算机&#xff0c;碰到这样的问题该怎么解决呢&#xff0c;现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法&#xff1a;1、2、依次…...

    2022/11/19 21:17:11
  33. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...

    今天和大家分享一下win7系统重装了Win7旗舰版系统后&#xff0c;每次关机的时候桌面上都会显示一个“配置Windows Update的界面&#xff0c;提示请勿关闭计算机”&#xff0c;每次停留好几分钟才能正常关机&#xff0c;导致什么情况引起的呢&#xff1f;出现配置Windows Update…...

    2022/11/19 21:17:10
  34. 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...

    只能是等着&#xff0c;别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚&#xff0c;只能是考虑备份数据后重装系统了。解决来方案一&#xff1a;管理员运行cmd&#xff1a;net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...

    2022/11/19 21:17:09
  35. 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?

    原标题&#xff1a;电脑提示“配置Windows Update请勿关闭计算机”怎么办&#xff1f;win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢&#xff1f;一般的方…...

    2022/11/19 21:17:08
  36. 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...

    关机提示 windows7 正在配置windows 请勿关闭计算机 &#xff0c;然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;关机提示 windows7 正在配…...

    2022/11/19 21:17:05
  37. 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...

    钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...

    2022/11/19 21:17:05
  38. 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...

    前几天班里有位学生电脑(windows 7系统)出问题了&#xff0c;具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面&#xff0c;长时间没反应&#xff0c;无法进入系统。这个问题原来帮其他同学也解决过&#xff0c;网上搜了不少资料&#x…...

    2022/11/19 21:17:04
  39. 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...

    本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法&#xff0c;并在最后教给你1种保护系统安全的好方法&#xff0c;一起来看看&#xff01;电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中&#xff0c;添加了1个新功能在“磁…...

    2022/11/19 21:17:03
  40. 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...

    许多用户在长期不使用电脑的时候&#xff0c;开启电脑发现电脑显示&#xff1a;配置windows更新失败&#xff0c;正在还原更改&#xff0c;请勿关闭计算机。。.这要怎么办呢&#xff1f;下面小编就带着大家一起看看吧&#xff01;如果能够正常进入系统&#xff0c;建议您暂时移…...

    2022/11/19 21:17:02
  41. 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...

    配置windows update失败 还原更改 请勿关闭计算机&#xff0c;电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;配置windows update失败 还原更改 请勿关闭计算机&#x…...

    2022/11/19 21:17:01
  42. 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...

    不知道大家有没有遇到过这样的一个问题&#xff0c;就是我们的win7系统在关机的时候&#xff0c;总是喜欢显示“准备配置windows&#xff0c;请勿关机”这样的一个页面&#xff0c;没有什么大碍&#xff0c;但是如果一直等着的话就要两个小时甚至更久都关不了机&#xff0c;非常…...

    2022/11/19 21:17:00
  43. 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...

    当电脑出现正在准备配置windows请勿关闭计算机时&#xff0c;一般是您正对windows进行升级&#xff0c;但是这个要是长时间没有反应&#xff0c;我们不能再傻等下去了。可能是电脑出了别的问题了&#xff0c;来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...

    2022/11/19 21:16:59
  44. 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...

    我们使用电脑的过程中有时会遇到这种情况&#xff0c;当我们打开电脑之后&#xff0c;发现一直停留在一个界面&#xff1a;“配置Windows Update失败&#xff0c;还原更改请勿关闭计算机”&#xff0c;等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢&#xff0…...

    2022/11/19 21:16:58
  45. 如何在iPhone上关闭“请勿打扰”

    Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...

    2022/11/19 21:16:57