[Lecture 6 ] Training Neural Networks I(训练神经网络I)
文章目录
- 课堂问答
- 1. 激活函数(Activation Function)
- 1.1 Sigmoid激活函数
- 1.2 tanh(x)激活函数
- 1.3 ReLU函数
- 1.4 Leaky ReLU激活函数
- 1.5 指数线性单元(ELU)
- 1.6 最大输出单元(Maxout)
- 2. 数据预处理(Data Preprocessing)
- 3. 权重初始化(weight initialization)
- 3.3 Xavier 初始化
- 3.3 He et al 初始化
- 4. 批量归一化(BatchNorm)
- 5. 观察训练过程并调整参数
- 5.1 训练过程
- 5.2 超参数调优
- 6. 总结
- 扩展阅读
课堂问答
- Q1: 什么时候造成 ReLU神经元失活?(Dead ReLU)
- A1: 当我们输入的有些输入使得ReLU的输入为负数的时候i,其反向传播梯度为0,即梯度在这里就断掉了。
- Q2: 在训练阶段预处理后在测试阶段也需要做吗?
- A2: 需要使用同一经验值来进行预处理,例如都减去训练集的均值
而且整个经验值,需要在分批之前在整个训练集合=上得到。 - Q3: 为什么批量归一化后需要新学两个缩放参数?
- A3: 可学习的参数使得我们的输入不总是单位高斯分布的,导致有时候激活函数可能会部分出现饱和,增加了神经元的丰富性。
- Q4: 类似于像强化学习这样的小批量输入,BN操作是否还有效?
- A4: 实践证明,BN在深度CNN中有效,或许小的批量会影响均值和方差的计算,减少准确率,但是总的来说依然有一定效果。
- Q5: 在BN操作的时,如果强制将输入变成单位高斯分布,会损失数据结构吗?
- A5: 假设我们的输入特征有高斯分布的结构,则即便使用预处理,也不会改变高斯分布结构,可能造成高斯分布的平移。而在卷积操作中,我们可能像保留一个卷积区域内空间的部分结构,所以我们会在该区域内进行BN(而不仅在每个特征维度上进行BN)。更多的,我们还可以学习两个缩放参数保留部分数据结构。
- Q6: 训练的时候,BN是使用的一个批次训练数据的均值和方差,那么在测试单个样本的时候,这个值该怎么得到?
- A6: 如我们在模型训练时我们就记录下每个batch下的均值和方差,待训练完毕后,我们求整个训练样本的均值和方差期望值,作为我们进行预测时进行BN的的均值和方差:
最后测试阶段使用的BN:
1. 激活函数(Activation Function)
1.1 Sigmoid激活函数
作用:将输入压缩在一个0~1的区间内
缺点:
- (正/负)饱和神经元使得反传梯度消失
通过图像,我们可以看到,sigmoid函数在输入很大或者很小的值附近变化都很小,也代表着这附近的梯度趋近于0,所以会导致上流反传的梯度乘以一个很小的梯度,导致梯度越来越接近于0(这不利于我们权重的更新)。理论上,sigmoid的梯度表达式为:
当值为0和1的时候,梯度都非常的小。 - 输出值不是以为0中心(not zero-centered),即总是正数。
考虑一个线性映射单元,其接收到的输入x总是正的(或者负的),即 对 的 局部梯度 总是正的(或负的),运用链式法则的时候就等效于我们将上游梯度的符号传回来了,意味着关于W(一个向量)的梯度的符号都是相同的。考虑右图中一个二维的W,它所允许的梯度是一象限或者三象限,所以负梯度方向就类似于两个红线方向,假设我们的期望方向是蓝线,则总是正(负)的梯度就只能锯齿前进,梯度更新比较低效。
所以,通常我们都需要输入的X的均值为0,即输入零均值的数据。
- 指数函数exp()计算代价比较高。
1.2 tanh(x)激活函数
- 将输入激活到 区间
- 输出零中心化
- 依然存在梯度消失的问题
1.3 ReLU函数
作用和优点
- ,计算代价小,收敛快(实践上比sigmoid和tanh快6倍左右)
- 按照元素操作(element-wise)
- 正半区域没有梯度消失问题
- 在生物学上比sigmoid更加合理
缺点
- 依然不是零中心化的输出
- 负半区域出现梯度消失(因为梯度为0),称之为Dead ReLU。
- 即当我们的权重初始化不好的时候,某些输入数据(DATA CLOUD)会使得ReLU的输入为负数,这样这些神经元就不会被更新。所以,某些人会在实践的时候给ReLu的输入偏置初始化一个小的正值。
1.4 Leaky ReLU激活函数
- 左边是 Leaky ReLU,避免了 ReLU 的一些缺点(失活)
- 输出有正有负,趋向于零均值
- 右边是参数整流单元(PReLU),其引入一个可学习的参数 ,而不是固定为0.01.
1.5 指数线性单元(ELU)
- 输出均值趋近于0(即有正有负)
- 负半轴区域不是像 Leaky ReLU那样线性,而是趋向于饱和,或许能抑制一些噪声(因为噪声输入的得分值会比较小)
- 效果介于 ReLU 和 Leaky ReLU 之间。
- 需要计算指数函数 exp()。
1.6 最大输出单元(Maxout)
- 并不是先做点积运算(dot product),然后将激活函数运用在每个元素上(element-wise)
- 是ReLu和leaky ReLU的推广,因为其是在两个线性函数种取最大值
- 会使得参数翻倍,因为原来一个神经元的参数 ,现在是
- 没有神经元失活问题,因为每个输入有两组参数,其中一组肯定会更新
激活函数选择建议
2. 数据预处理(Data Preprocessing)
2.1 去均值和归一化
- 简单的预处理包含去均值和标准化
- 原因之一是之前讲过的,输入数据均为正或者负可能会导致某一层的权重各个维度朝着一个方向更新
- 归一化数据,即我们有时候在概率中说的去单位化,它使得各个特征维度的特征都标准化,贡献率一致。
- 图像处理中很少用归一化,因为各个维度的特征的取值范围都差不多,但是在通用机器学习问题中,这种操作能避免某些偏差很大的特征的影响。
2.2 去相关和白化
- 图像的预处理或许只会使用零均值化,不会用这些复杂的预处理
- 或许这些处理方法适合在最后的特征表达,特征选择上使用
举个栗子
- 一般,图像中我们只做去均值化
- 有时候减去通道均值比减去均值图像更方便,因为只有3个数值。
3. 权重初始化(weight initialization)
3.1 引入
Q: 如果我们将图中的神经元的权重 都初始化为0,会发生什么?
A: 大部分神经元都表现出相似的行为(相似的输入,相似的输出,相似的反传梯度),即纵观整个神经网络的训练,我们可能会得到大量的相似神经元,这影响了我们网络的丰富性。
即会出现 参数对称问题(symmetry)。
3.2 解决方案
随机初始化
- 随机从一个分布(例如高斯分布)中选取参数
- 但是这种方法一般只在浅层神经网络中有效,深度网络中或许会出问题。例如下面这个10层神经网络,每层网络包含500个结点,而且用 激活函数。
#coding=UTF-8
import numpy as np
import matplotlib.pyplot as plt# assume some unit gaussian 10-D input data
np.random.seed(2018)
D = np.random.randn(1000,500) # input data
hidden_layer_sizes = [500] * 10 # 10 layers with 500 nodes
nonliearities = ['tanh'] * len(hidden_layer_sizes)act = {'relu':lambda x: np.maximum(0,x), 'tanh': lambda x: np.tanh(x)}
Hs = {} # 每一层结点np.random.seed(8012)
for i in range(len(hidden_layer_sizes)):X = D if i == 0 else Hs[i-1] # 当前层的输入fan_in = X.shape[1]fan_out = hidden_layer_sizes[i]W = np.random.randn(fan_in,fan_out) * 0.01 # 权重初始化H = np.dot(X,W)H = act[nonliearities[i]](H)Hs[i] = H # 状态保存print(Hs[9].shape)
# 然后我们画出每一层的分布
print("input layer had mean %f and std %f" % (np.mean(D), np.std(D)))layer_means = [np.mean(H) for i,H in Hs.iteritems()]
layer_stds = [np.std(H) for i,H in Hs.iteritems()]for i,H in Hs.iteritems():print('hidden layer %d had mean %f and std %f' % (i+1,layer_means[i],layer_stds[i]))# 画出均值和方差
plt.figure()
plt.subplot(121)
plt.plot(Hs.keys(),layer_means,'ob-')
plt.title('layer mean')
plt.subplot(122)
plt.plot(Hs.keys(),layer_stds,'or-')
plt.title('layer std')
plt.show()
# 画出原始输入和各层神经结点的分布
plt.figure()
plt.subplot(1,len(Hs)+1,1)
plt.hist(D.ravel(),30,range=(-5,5))for i,H in Hs.iteritems():plt.subplot(1,len(Hs)+1,i+2)# 每一层有500个结点, ravel()表示将该矩阵拉伸成一个一维数组(1000 * 500)plt.hist(H.ravel(),30,range=(-1,1))plt.show()
- 我们第一次,初始化一些比较小的符合高斯分布的权重,可能会得到下面实验图像:
- 根据上图,我们能得到,我们的神经元激活值会逐渐趋近于0,因为我们使用的是点乘 操作,而很小的权重可能导致神经元的输出逐渐趋近于0,且方差越来越小,同时使用 激活,输出依然是零均值的。
这就导致了,当我们反传梯度的时候,上流梯度分配给权重的梯度乘上x也会非常的小,这就导致了 权重几乎没有更新。 而传给下层的梯度乘上 W 后也会越来越小并趋近于0。
- 这一次,我们增大权重的初始值,看看会发生什么?
W = np.random.randn(fan_in,fan_out) * 1 # 权重初始化
- 可以发现,大的权重导致不断的乘积下我们的神经元逐渐趋向于饱和,即输出为1或者-1(tanh激活后)。
这就导致了我们得到的梯度为0,神经元将不再更新。
根据我们神经元的分布情况初始化
由上面的实验,我们有,当权重太小的时候,网络崩溃;权重太大,网络饱和的问题。所以,有很多研究者提出各种权重初始化方式。
3.3 Xavier 初始化
- 从高斯分布中取样,并根据输入神经元个数进行缩放。
- 初衷是 输入的方差等于输出的方差,直观上少量的输入需要乘以大的权重以平衡输出的方差与输入相同,保持相同的分布进行传播。
- 所以,当我们每一层的输入都是单位高斯分布的时候,使用 初始化会在每一层都得到一个高斯分布。
- 但是,当使用 激活函数的时候,它可能会随机将一半的神经元屏蔽掉,导致方差只有原来的一半。导致高斯分布会不断收缩,最后只存在0附近的一个单峰,使得神经元逐渐失活。
3.3 He et al 初始化
- 为了解决上诉问题,He 在2015年中建议,将缩放因子除以2,因为 会造成一半的神经元屏蔽,导致我们实际的输入其实只有 ReLU激活前的一半。
- 这样,我们能一定程度上避免最后神经元集中在 附近。
4. 批量归一化(BatchNorm)
批量归一化让我们的输入数据在高斯范围内保持激活,即
- 它在输入的一批数据的 每一个维度上都进行归一化,得到一个 单位高斯 输出,因为在之前我们谈到,具有零均值的数据有时候是利于网络训练的。
- 而且它还是一个可微函数,因为我们的均值和方差都是常数。
- 通常我们的批量归一化层放在全连接层和卷积层的后面,因为这些层我们会不断乘以权重W,造成不同程度的缩放。而且,在卷积层后进行批量归一化,我们不仅会BN每一个维度,而且空间上,我们也会BN同一个激活图(activation map)。
Q: 卷积后进行归一化是在一个卷积核内的激活图进行归一化还是在整个特征图(feature map)上进行归一化? - BN在一定程度上能避免饱和,但是有时候一定的饱和可能有利于我们神经元的处理,比如我们会对某些数据进行抑制,所以,BN还有一种改进:
- 即我们格外学习两个缩放参数 和 来进行部分还原。特别的,当学习到右图所示的时候,这是一个恢复的恒等函数。
- 所以,我们最终的BN层计算如下:
- 同时,BN操作会减少之前提到的学习率(可以设置更大的学习率)和权重初始化带来的影响,使得训练更加鲁棒。
- 而且,它也是一种正则方式。因为,我们得到的均值和方差是一个批次里的,它是一个经验值,而且是不断变化的,就像在输入X中加入了抖动,实现了正则化的效果。
5. 观察训练过程并调整参数
5.1 训练过程
- 数据准备与预处理
- 选择网络结构
- 损失完整性检查
- 例如之前我们的C分类softmax分类器,在初始化小权重之后,得到的初始损失应该是
- 接下来,加入正则项,看损失是否增加。
- 然后在一个 小数据集 上进行测试训练,同时关闭正则惩罚,看我们的准确率是不是不断接近于1(即多次迭代之后有没有很好的拟合训练集)
- 确定正则惩罚,然后开始调试比较优的 学习率(这个参数很重要)。
下图中损失变化很小,可能是学习率太小。
下图可能是学习率太大,导致损失NAN。
- 一般我们的学习率在 ,也取决于我们损失的变化。
5.2 超参数调优
- 使用交叉验证,且 超参数从粗到细进行调节(先用几个epoch来看损失的变化情况,再在这个粗的范围内进行微调)
- 一般我们的超参数都是在 区间中找,即 中,例如:
- 我们能初步锁定一个区间,它在 左右表现良好,然后我们进一步改变区间:
- 一般我们的超参数都是在 区间中找,即 中,例如:
- 网格搜索(固定一组参数进行采样)和随机搜索
6. 总结
扩展阅读
- Neural Networks Part 2: Setting up the Data and the Loss
网络权重初始化
- Understanding the difficulty of training deep feedforward neural networks by Glorot and Bengio, 2010
- Exact solutions to the nonlinear dynamics of learning in deep linear neural networks by Saxe et al, 2013
- Random walk initialization for training very deep feedforward networks by Sussillo and Abbott, 2014
- Delving deep into rectifiers: Surpassing human-level performance on ImageNet classification by He et al., 2015
- Data-dependent Initializations of Convolutional Neural Networks by Krähenbühl et al., 2015
- All you need is a good init, Mishkin and Matas, 2015
批量归一化
- [Ioffe and Szegedy, 2015]
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
相关文章
- 疯狂iOS 讲义(上) Objective-C 2.0与iPhone/iPad应用开发基础(国内首部iOS 7相关著作,小伙伴们,学好iPhone/iPad应用开发,我们一起做土豪吧)
疯狂iOS 讲义(上) Objective-C 2.0与iPhone/iPad应用开发基础(国内首部iOS 7相关著作,小伙伴们,学好iPhone/iPad应用开发,我们一起做土豪吧) 李刚 编 ISBN978-7-121-19107-7 2014年1月出版 定价:99.00元 684页 16开 编辑推荐 内容最详尽的iOS 7平台iPhone/iPad应用开发…...
2024/4/17 7:47:04 - 教你写私募基金计划书(转自http://www.iwenbi.com/)
目前,展业计划书成为申请私募基金管理人的必备文件。那么,如何起草一份符合审查要求的私募基金管理人展业计划书呢?结合过往诸多项目的反馈经验,小编总结了协会关注的展业计划书要点,希望能给苦于展业计划书的私募机构一个清晰的思路。协会的常见反馈信息根据过往项目的经…...
2024/4/18 12:15:26 - GELU 激活函数
GELU的全称是GAUSSIAN ERROR LINEAR UNIT与Sigmoids相比,像ReLU,ELU和PReLU这样的激活可以使神经网络更快更好地收敛。此外,Dropout通过将一些激活数乘以0来规范化模型。以上两种方法共同决定了神经元的输出。但是,两者彼此独立工作。GELU旨在将它们结合起来。另外,称为Zo…...
2024/4/17 7:46:52 - vue实现省市县三级联动,超简单
vue实现省市县三级联动,超简单 最近在朋友的项目中碰到用vue实现省市县三级联动的需求,按照我以往的套路来说,基本都是找ui框架里的联级选择器一把梭哈,但是朋友说需要自己实现。好吧,既然朋友都说了要自己实现,那就安排吧!! 一、vue实现省市县三级联动(不用插件版) 必…...
2024/4/17 7:47:41 - EasyDarwin开源流媒体云平台之EasyRMS录播服务器功能设计
需求背景EasyDarwin开发团队维护EasyDarwin开源流媒体服务器也已经很多年了,之前也陆陆续续尝试过很多种服务端录像的方案,有:在EasyDarwin中直接解析收到的RTP包,重新组包录像;也有:在EasyDarwin中新增一个RecordModule,再以RTSPClient的方式请求127.0.0.1自己的直播流…...
2024/4/17 7:47:40 - Android查询短信数据库
android常用数据库字段描述1.短信数据库String strUriInbox = "content://sms";Uri uriSms = Uri.parse(strUriInbox);Cursor c_groups = managedQuery( uriSms , new String[] { "date","person" }, select, null, "date DESC");strC…...
2024/5/8 4:56:03 - CS231n李飞飞计算机视觉 神经网络训练细节part1上
神经网络训练细节part1上训练过程激活函数数据预处理 训练过程取一个batch数据将数据延着网络前向传播,计算每个单元的输出和损失将梯度依据链式法则延网络反向传播根据梯度更新参数 激活函数SigmoidtanhReLULeaky ReLUPReLUMaxoutELU Sigmoid(挤压函数)函数图像:特点:输出…...
2024/5/7 17:13:47 - 干货】国外程序员整理的 C++ 资源大全
关于 C++ 框架、库和资源的一些汇总列表,由 fffaraz发起和维护。内容包括:标准库、Web应用框架、人工智能、数据库、图片处理、机器学习、日志、代码分析等。标准库 C++ Standard Library:是一系列类和函数的集合,使用核心语言编写,也是C++ISO自身标准的一部分。Standard …...
2024/5/8 0:34:24 - 教你如何写好商业计划书 赢得风险投资
怎样写好商业计划书----商业计划书的内容---- 检查 美国一位著名风险投资家曾说过,"风险企业邀人投资或加盟,就象向离过婚的女人求婚,而不象和女孩子初恋。双方各有打算,仅靠空口许诺是无济于事的。"对于正在寻求资金的风险企业来说,商业计划书就是企业的电话通…...
2024/5/8 4:23:42 - Unity3D的入门操作1
unity的安装: 尝试安装了好几个版本:UnityDownloadAssistant-2017.2.3f1 Unity3D的官网 这款版本比较好用,2019的破解版一直出现乱七八糟的问题。 unity安装的目录结构: |----- Editor Unity3D 软件(引擎)核心文件 |----- MonoDevelop 一款内置的脚本编辑软件 在Hierachy层…...
2024/5/7 18:22:14 - JFlow工作流 项目集成案例
用户登录页登录后首页流程处理消息收件箱发送消息用户管理组织结构管理权限管理...
2024/5/7 16:48:59 - schrodinger 2018-4 Linux 下的安装
网上找了半天只有 Windows 的图形化安装(话说你们好意思在标题上写个 Linux 吗) 上网盘好不容易下了下来也没看到安装方法,还好细心的我看到了 INSTALL 文件(不加权限谁看得到啊) 好不容易安装完了还要收费,心态崩了,只好交出 5 块钱给大家买下 不过也不能断人财路,我自…...
2024/4/1 6:09:06 - android3种方式查询手机通讯录联系人
3种方式查询手机通讯录联系人本文是提供了3种方式查询通讯录,获取手机通讯录中所有联系人的ID和联系人姓名。通过ContentResolver类的query方法,这种方法在主线程中查询数据,query方法返回数据库的游标Cursor,需要自己去手动关闭。 通过Activity类的managedQuery方法,这种…...
2024/4/20 16:16:58 - Python分析 | 从00-90后的微信昵称
一、前言大家好,首先说明的是,这是一篇技术文,也是一篇not技术文,今天分享的是,当我获取了微信小程序英文取名的3500多个微信用户昵称、年龄段后,分析得到下面解果。。。二、Lets get it1.基本信息获取1.访问英文取名的用户基本信接口,获取英文取名用户微信名(NickName…...
2024/4/17 12:12:48 - 商业计划书模板
商业计划书模版产品 商 业 计 划 书目录 第一部分 概要 4 第二部分 公司介绍 5 一、宗旨 5 二、公司简介 5 三、公司产品和服务 5 四、公司管理管理队伍状况 5 五、知识产权策略 5 第三部分 市场分析 5 一、市场介绍 5 二、目标市场分析 6 三、顾客的购买准则 6 四、销售策略…...
2024/5/8 2:59:13 - 机器学习中常用激活函数和损失函数
1. 激活函数 1.1 各激活函数曲线对比 常用激活函数: tf.sigmoid() tf.tanh() tf.nn.relu() tf.nn.softplus() tf.nn.softmax() tf.nn.dropout() tf.nn.elu() import numpy as np import matplotlib.pyplot as plt from scipy.misc import derivative def sigmoid(x):y = 1 / (…...
2024/4/20 11:04:41 - cs231n lecture 16 7.1笔记--更好的优化
last time:activation function:sigmoid, tanh, relu, leacky relu, maxout, ELUweight initialization:Xavier初始化,MSRA初始化。初始化过小无法学习,过大梯度消失。data preprocessing:中心化,归一化。好处是让loss对参数值中的小扰动不那么敏感。batch normalization…...
2024/4/17 7:49:40 - 整理:周鸿祎谈如何写商业计划书
整理:周鸿祎谈如何写商业计划书 原文链接: http://bokexunlianying.blog.sohu.com/97462714.html1、目前市场上存在的问题 你为什么创办一个公司,一定是你发现市场里面的机会,一定在市场里面有一个问题没有被人解决或者别人解决的不好,应该相信VC们很聪明,天天阅读行业报…...
2024/4/17 7:47:52 - android常用数据库字段描述
1.短信数据库 String strUriInbox = "content://sms"; Uri uriSms = Uri.parse(strUriInbox); Cursor c_groups = managedQuery( uriSms , new String[] { "date","person" }, select, null, "date DESC"); strColumnName=_id …...
2024/4/17 7:47:34 - 漫谈互联网思维
博客出自:http://blog.csdn.net/liuxian13183,转载注明出处! All Rights Reserved ! 我的互联网思维观 互联网思维,这个观念在每次互联网发生变革的时候,无论99年的电脑互联网还是09年的移动互联网,均会被再次提及——代表一种新的潮流,代表一种颠覆方式,代表生产关系与…...
2024/4/17 22:44:24
最新文章
- 聪明与诚实:社会信任的桥梁
在现代社会中,我们经常听到这样的评价:“某人真聪明。”然而,当我们深入思考时,会发现“聪明”这个词背后所承载的含义并不单一。聪明和狡诈往往被混淆,而诚实的价值却时常被忽视。在一个高度诚信的社会里,…...
2024/5/8 6:49:21 - 梯度消失和梯度爆炸的一些处理方法
在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言,在此感激不尽。 权重和梯度的更新公式如下: w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...
2024/5/7 10:36:02 - 云计算概述报告
以下是一篇论述类文章 文章目录 I. 云计算介绍(1)云计算基本概念(2)云计算基本特征 II. 云计算发展历程(1)云计算的起源(2)云计算的发展阶段 III. 云计算特点(1ÿ…...
2024/5/7 11:36:49 - CQT 质押者将从 Wormhole 的空投计划中获益,凸显跨链互操作的重要性
在向去中心化协议治理迈进的战略进程中,Wormhole 近期公布了分发 6.17 亿枚 W 代币的计划,这一举措旨在激励多个链上社区参与。这些代币将促进在 Wormhole 平台内的治理参与度,并对贡献者进行激励,将近有 400,000 个钱包即将收到部…...
2024/5/6 13:47:12 - 【外汇早评】美通胀数据走低,美元调整
原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...
2024/5/8 6:01:22 - 【原油贵金属周评】原油多头拥挤,价格调整
原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...
2024/5/7 9:45:25 - 【外汇周评】靓丽非农不及疲软通胀影响
原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...
2024/5/4 23:54:56 - 【原油贵金属早评】库存继续增加,油价收跌
原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...
2024/5/7 14:25:14 - 【外汇早评】日本央行会议纪要不改日元强势
原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...
2024/5/4 23:54:56 - 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响
原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...
2024/5/4 23:55:05 - 【外汇早评】美欲与伊朗重谈协议
原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...
2024/5/4 23:54:56 - 【原油贵金属早评】波动率飙升,市场情绪动荡
原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...
2024/5/7 11:36:39 - 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试
原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...
2024/5/4 23:54:56 - 【原油贵金属早评】市场情绪继续恶化,黄金上破
原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...
2024/5/6 1:40:42 - 【外汇早评】美伊僵持,风险情绪继续升温
原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...
2024/5/4 23:54:56 - 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势
原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...
2024/5/4 23:55:17 - 氧生福地 玩美北湖(上)——为时光守候两千年
原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...
2024/5/7 9:26:26 - 氧生福地 玩美北湖(中)——永春梯田里的美与鲜
原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...
2024/5/4 23:54:56 - 氧生福地 玩美北湖(下)——奔跑吧骚年!
原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...
2024/5/4 23:55:06 - 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!
原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...
2024/5/5 8:13:33 - 「发现」铁皮石斛仙草之神奇功效用于医用面膜
原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...
2024/5/4 23:55:16 - 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者
原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...
2024/5/4 23:54:58 - 广州械字号面膜生产厂家OEM/ODM4项须知!
原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...
2024/5/6 21:42:42 - 械字号医用眼膜缓解用眼过度到底有无作用?
原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...
2024/5/4 23:54:56 - 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...
解析如下:1、长按电脑电源键直至关机,然后再按一次电源健重启电脑,按F8健进入安全模式2、安全模式下进入Windows系统桌面后,按住“winR”打开运行窗口,输入“services.msc”打开服务设置3、在服务界面,选中…...
2022/11/19 21:17:18 - 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。
%读入6幅图像(每一幅图像的大小是564*564) f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...
2022/11/19 21:17:16 - 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...
win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面,在等待界面中我们需要等待操作结束才能关机,虽然这比较麻烦,但是对系统进行配置和升级…...
2022/11/19 21:17:15 - 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...
有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows,请勿关闭计算机”的提示,要过很久才能进入系统,有的用户甚至几个小时也无法进入,下面就教大家这个问题的解决方法。第一种方法:我们首先在左下角的“开始…...
2022/11/19 21:17:14 - win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...
置信有很多用户都跟小编一样遇到过这样的问题,电脑时发现开机屏幕显现“正在配置Windows Update,请勿关机”(如下图所示),而且还需求等大约5分钟才干进入系统。这是怎样回事呢?一切都是正常操作的,为什么开时机呈现“正…...
2022/11/19 21:17:13 - 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...
Win7系统开机启动时总是出现“配置Windows请勿关机”的提示,没过几秒后电脑自动重启,每次开机都这样无法进入系统,此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一:开机按下F8,在出现的Windows高级启动选…...
2022/11/19 21:17:12 - 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...
有不少windows10系统用户反映说碰到这样一个情况,就是电脑提示正在准备windows请勿关闭计算机,碰到这样的问题该怎么解决呢,现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法:1、2、依次…...
2022/11/19 21:17:11 - 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...
今天和大家分享一下win7系统重装了Win7旗舰版系统后,每次关机的时候桌面上都会显示一个“配置Windows Update的界面,提示请勿关闭计算机”,每次停留好几分钟才能正常关机,导致什么情况引起的呢?出现配置Windows Update…...
2022/11/19 21:17:10 - 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...
只能是等着,别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚,只能是考虑备份数据后重装系统了。解决来方案一:管理员运行cmd:net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...
2022/11/19 21:17:09 - 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?
原标题:电脑提示“配置Windows Update请勿关闭计算机”怎么办?win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢?一般的方…...
2022/11/19 21:17:08 - 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...
关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!关机提示 windows7 正在配…...
2022/11/19 21:17:05 - 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...
钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...
2022/11/19 21:17:05 - 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...
前几天班里有位学生电脑(windows 7系统)出问题了,具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面,长时间没反应,无法进入系统。这个问题原来帮其他同学也解决过,网上搜了不少资料&#x…...
2022/11/19 21:17:04 - 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...
本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法,并在最后教给你1种保护系统安全的好方法,一起来看看!电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中,添加了1个新功能在“磁…...
2022/11/19 21:17:03 - 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...
许多用户在长期不使用电脑的时候,开启电脑发现电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机。。.这要怎么办呢?下面小编就带着大家一起看看吧!如果能够正常进入系统,建议您暂时移…...
2022/11/19 21:17:02 - 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...
配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!配置windows update失败 还原更改 请勿关闭计算机&#x…...
2022/11/19 21:17:01 - 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...
不知道大家有没有遇到过这样的一个问题,就是我们的win7系统在关机的时候,总是喜欢显示“准备配置windows,请勿关机”这样的一个页面,没有什么大碍,但是如果一直等着的话就要两个小时甚至更久都关不了机,非常…...
2022/11/19 21:17:00 - 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...
当电脑出现正在准备配置windows请勿关闭计算机时,一般是您正对windows进行升级,但是这个要是长时间没有反应,我们不能再傻等下去了。可能是电脑出了别的问题了,来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...
2022/11/19 21:16:59 - 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...
我们使用电脑的过程中有时会遇到这种情况,当我们打开电脑之后,发现一直停留在一个界面:“配置Windows Update失败,还原更改请勿关闭计算机”,等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢࿰…...
2022/11/19 21:16:58 - 如何在iPhone上关闭“请勿打扰”
Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...
2022/11/19 21:16:57