MNIST手写数字识别进阶:多层神经网络与应用
慕课:《深度学习应用开发-TensorFlow实践》
章节:第八讲 MNIST手写数字识别进阶:多层神经网络与应用
TensorFlow版本为2.3
本章中有许多地方和之前一样,不知道的可以去看:MNIST手写数字识别:分类应用入门(实践篇)
目录
- 全连接单隐藏层网络
- 数据载入
- 数据集划分及数据归一化
- 独热编码
- 构建模型
- 创建待优化变量
- 定义模型前向计算
- 定义损失函数
- 定义梯度计算函数
- 定义准确率
- 设置训练参数及优化器
- 模型训练
- 多隐藏层网络
- 创建变量
- 构建模型
- 完整代码
- 使用Keras序列模型建模
- Keras序列模型建模的一般步骤
- 用Keras训练MNIST手写数字识别
- 常规操作
- 构建模型
- 定义训练模式
- 设置训练参数
- 训练模型
- 可视化结果
- 模型评估
全连接单隐藏层网络
数据载入
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
tf.__version__
mnist=tf.keras.datasets.mnist
(train_images,train_labels),(test_images,test_labels)=mnist.load_data()
这一部分和之前一样,不再重复了
数据集划分及数据归一化
这一部分也和之前一样,同样不再重复
total_num=len(train_images)
valid_split=0.2# 验证集占20%
train_num=int(total_num*(1-valid_split))train_x=train_images[:train_num]
train_y=train_labels[:train_num]valid_x=train_images[train_num:]
valid_y=train_labels[train_num:]test_x=test_images
test_y=test_labelstrain_x=train_x.reshape(-1,784)
valid_x=valid_x.reshape(-1,784)
test_x=test_x.reshape(-1,784)train_x=tf.cast(train_x/255.0,tf.float32)
valid_x=tf.cast(valid_x/255.0,tf.float32)
test_x=tf.cast(test_x/255.0,tf.float32)
独热编码
同样和之前一样,不重复
train_y=tf.one_hot(train_y,depth=10)
valid_y=tf.one_hot(valid_y,depth=10)
test_y=tf.one_hot(test_y,depth=10)
构建模型
先来看看我们要构建的模型
这个网络相较于之前做的那个多了个隐藏层,这里面的b,是我们所加上的偏置项,接下来我们来实现它
创建待优化变量
#定义第一层隐藏层权重和偏置项变量
Input_Dim=784
H1_NN=64
W1=tf.Variable(tf.random.normal([Input_Dim,H1_NN],mean=0.0,stddev=1.0,dtype=tf.float32))
B1=tf.Variable(tf.zeros([H1_NN]),dtype=tf.float32)#定义输出层权重和偏置项变量
Output_Dim=10
W2=tf.Variable(tf.random.normal([H1_NN,Output_Dim],mean=0.0,stddev=1.0,dtype=tf.float32))
B2=tf.Variable(tf.zeros([Output_Dim]),dtype=tf.float32)#建立待优化变量列表
W=[W1,W2]
B=[B1,B2]
定义模型前向计算
def model(x,w,b):x=tf.matmul(x,w[0])+b[0]x=tf.nn.relu(x)x=tf.matmul(x,w[1])+b[1]pred=tf.nn.softmax(x)return pred
定义损失函数
我们所使用的是交叉熵的损失函数,并且直接调用TensorFlow提供的交叉熵函数,也就不用自己再写了
def loss(x,y,w,b):pred=model(x,w,b)loss_=tf.keras.losses.categorical_crossentropy(y_true=y,y_pred=pred)return tf.reduce_mean(loss_)
定义梯度计算函数
def grad(x,y,w,b):var_list=w+bwith tf.GradientTape() as tape:loss_=loss(x,y,w,b)return tape.gradient(loss_,var_list)
定义准确率
def accuracy(x,y,w,b):pred=model(x,w,b)correct_prediction=tf.equal(tf.argmax(pred,1),tf.argmax(y,1))return tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
设置训练参数及优化器
training_epochs=20
batch_size=50
lr=0.01optimizer=tf.keras.optimizers.Adam(learning_rate=lr)
模型训练
total_step=int(train_num/batch_size)
loss_list_train=[]#train loss
loss_list_valid=[]
acc_list_train=[]#train loss
acc_list_valid=[]for epoch in range(training_epochs):for step in range(total_step):xs=train_x[step*batch_size:(step+1)*batch_size,:]ys=train_y[step*batch_size:(step+1)*batch_size]grads=grad(xs,ys,W,B)#计算梯度optimizer.apply_gradients(zip(grads,W+B))#优化器调参loss_train=loss(train_x,train_y,W,B).numpy()loss_valid=loss(valid_x,valid_y,W,B).numpy()acc_train=accuracy(train_x,train_y,W,B).numpy()acc_vaild=accuracy(valid_x,valid_y,W,B).numpy()loss_list_train.append(loss_train)loss_list_valid.append(loss_valid)acc_list_train.append(acc_train)acc_list_valid.append(acc_vaild)print(f"epoch={epoch+1},train_loss={loss_train},valid_loss={loss_valid},train_accuracy={acc_train},valid_accuracy={acc_vaild}")
从打印结果可以看到,损失值loss是趋于更小的,同时,准确率越来越高
多隐藏层网络
那么,假如我们要实现多隐藏层的网络,要如何实现呢?比如实现下面这个网络
我们只需要在上面的模型中改变一部分就可以了
创建变量
#定义第一层隐藏层权重和偏置项变量
Input_Dim=784
H1_NN=64
W1=tf.Variable(tf.random.normal([Input_Dim,H1_NN],mean=0.0,stddev=1.0,dtype=tf.float32))
B1=tf.Variable(tf.zeros([H1_NN]),dtype=tf.float32)
#定义第二层隐藏层权重和偏置项变量
H2_NN=32
W2=tf.Variable(tf.random.normal([H1_NN,H2_NN],mean=0.0,stddev=1.0,dtype=tf.float32))
B2=tf.Variable(tf.zeros([H2_NN]),dtype=tf.float32)
#定义输出层权重和偏置项变量
Output_Dim=10
W3=tf.Variable(tf.random.normal([H2_NN,Output_Dim],mean=0.0,stddev=1.0,dtype=tf.float32))
B3=tf.Variable(tf.zeros([Output_Dim]),dtype=tf.float32)
#建立待优化变量列表
W=[W1,W2,W3]
B=[B1,B2,B3]
构建模型
也就是加上一层
def model(x,w,b):x=tf.matmul(x,w[0])+b[0]x=tf.nn.relu(x)x=tf.matmul(x,w[1])+b[1]x=tf.nn.relu(x)x=tf.matmul(x,w[2])+b[2]pred=tf.nn.softmax(x)return pred
其他部分也就没有其他区别了,还是放一下完整的代码
完整代码
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
tf.__version__mnist=tf.keras.datasets.mnist
(train_images,train_labels),(test_images,test_labels)=mnist.load_data()total_num=len(train_images)
valid_split=0.2# 验证集占20%
train_num=int(total_num*(1-valid_split))train_x=train_images[:train_num]
train_y=train_labels[:train_num]valid_x=train_images[train_num:]
valid_y=train_labels[train_num:]test_x=test_images
test_y=test_labelstrain_x=train_x.reshape(-1,784)
valid_x=valid_x.reshape(-1,784)
test_x=test_x.reshape(-1,784)train_x=tf.cast(train_x/255.0,tf.float32)
valid_x=tf.cast(valid_x/255.0,tf.float32)
test_x=tf.cast(test_x/255.0,tf.float32)train_y=tf.one_hot(train_y,depth=10)
valid_y=tf.one_hot(valid_y,depth=10)
test_y=tf.one_hot(test_y,depth=10)#定义第一层隐藏层权重和偏置项变量
Input_Dim=784
H1_NN=64
W1=tf.Variable(tf.random.normal([Input_Dim,H1_NN],mean=0.0,stddev=1.0,dtype=tf.float32))
B1=tf.Variable(tf.zeros([H1_NN]),dtype=tf.float32)#定义第二层隐藏层权重和偏置项变量
H2_NN=32
W2=tf.Variable(tf.random.normal([H1_NN,H2_NN],mean=0.0,stddev=1.0,dtype=tf.float32))
B2=tf.Variable(tf.zeros([H2_NN]),dtype=tf.float32)#定义输出层权重和偏置项变量
Output_Dim=10
W3=tf.Variable(tf.random.normal([H2_NN,Output_Dim],mean=0.0,stddev=1.0,dtype=tf.float32))
B3=tf.Variable(tf.zeros([Output_Dim]),dtype=tf.float32)#建立待优化变量列表
W=[W1,W2,W3]
B=[B1,B2,B3]def model(x,w,b):x=tf.matmul(x,w[0])+b[0]x=tf.nn.relu(x)x=tf.matmul(x,w[1])+b[1]x=tf.nn.relu(x)x=tf.matmul(x,w[2])+b[2]pred=tf.nn.softmax(x)return preddef loss(x,y,w,b):pred=model(x,w,b)loss_=tf.keras.losses.categorical_crossentropy(y_true=y,y_pred=pred)return tf.reduce_mean(loss_)def grad(x,y,w,b):var_list=w+bwith tf.GradientTape() as tape:loss_=loss(x,y,w,b)return tape.gradient(loss_,var_list)def accuracy(x,y,w,b):pred=model(x,w,b)correct_prediction=tf.equal(tf.argmax(pred,1),tf.argmax(y,1))return tf.reduce_mean(tf.cast(correct_prediction,tf.float32))training_epochs=20
batch_size=50
lr=0.01optimizer=tf.keras.optimizers.Adam(learning_rate=lr)total_step=int(train_num/batch_size)
loss_list_train=[]#train loss
loss_list_valid=[]
acc_list_train=[]#train loss
acc_list_valid=[]for epoch in range(training_epochs):for step in range(total_step):xs=train_x[step*batch_size:(step+1)*batch_size,:]ys=train_y[step*batch_size:(step+1)*batch_size]grads=grad(xs,ys,W,B)#计算梯度optimizer.apply_gradients(zip(grads,W+B))#优化器调参loss_train=loss(train_x,train_y,W,B).numpy()loss_valid=loss(valid_x,valid_y,W,B).numpy()acc_train=accuracy(train_x,train_y,W,B).numpy()acc_vaild=accuracy(valid_x,valid_y,W,B).numpy()loss_list_train.append(loss_train)loss_list_valid.append(loss_valid)acc_list_train.append(acc_train)acc_list_valid.append(acc_vaild)print(f"epoch={epoch+1},train_loss={loss_train},valid_loss={loss_valid},train_accuracy={acc_train},valid_accuracy={acc_vaild}")
下面是训练的结果
如果想要更多层的神经网络,和上面的差不多,直接网上加就好了。
然而,也看到了,假设你要加10个隐藏层,你就要写十遍…enmm,好像比较麻烦。
事实上,在TensorFlow2.0中,更加提倡的做法是使用Keras
来建模
使用Keras序列模型建模
用Keras建模相当于是做一个汉堡,构建模型就是不断在上面叠加已经封装好的层就行了
Keras序列模型建模的一般步骤
采用Keras序列模型进行建模与训练过程一般分为六个步骤:
(1)创建一个Sequential
模型;
(2)根据需要,通过“add()
”方法在模型中添加所需要的神经网络层,
完成模型构建;
(3)编译模型,通过“compile()
”定义模型的训练模式;
(4)训练模型,通过“fit()
”方法进行训练模型;
(5)评估模型,通过“evaluate()
”进行模型评估;
(6)应用模型,通过“predict()
”进行模型预测。
用Keras训练MNIST手写数字识别
常规操作
值得注意的是,这里我们不再去划分验证集了,因为在之后用Keras建模的时候,有更方便的方法去完成这一件事情
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
tf.__version__mnist=tf.keras.datasets.mnist
(train_images,train_labels),(test_images,test_labels)=mnist.load_data()train_images=train_images/255.0
test_images=test_images/255.0train_labels_ohe=tf.one_hot(train_labels,depth=10).numpy()
test_labels_ohe=tf.one_hot(test_labels,depth=10).numpy()
构建模型
来看看我们的目标模型,这是一个64的隐藏层+32的隐藏层的双隐藏层模型。
接下来去构建我们的这个模型
#建立Sequential线性堆叠模型
model=tf.keras.models.Sequential()
# 添加平坦层(输入层)
model.add(tf.keras.layers.Flatten(input_shape=(28,28)))
#添加隐藏层(这里是两个全连接层)
model.add(tf.keras.layers.Dense(units=64,kernel_initializer='normal',activation='relu'))
model.add(tf.keras.layers.Dense(units=32,kernel_initializer='normal',activation='relu'))
#添加输出层
model.add(tf.keras.layers.Dense(10,activation='softmax'))
#输出模型摘要
model.summary()
定义训练模式
model.compile(optimizer='adam',loss='categorical_crossentropy',metrics=['accuracy'])
tf.keras.Model.compile
接受 3 个重要的参数:
optimizer
:优化器,可从tf.keras.optimizers
中选择;loss
:损失函数,可从tf.keras.losses
中选择;metrics
:评估指标,可从tf.keras.metrics
中选择。
设置训练参数
train_epochs=10
batch_size=30
训练模型
train_history=model.fit(train_images,train_labels_ohe,validation_split=0.2,epochs=train_epochs,batch_size=batch_size,verbose=2)
tf.keras.Model.fit()
常见参数:
x
:训练数据;y
:目标数据(数据标签);epochs
:将训练数据迭代多少遍;batch_size
:批次的大小;validation_data
:验证数据,可用于在训练过程中监控模型的性能。verbose
:训练过程的日志信息显示,0
为不在标准输出流输出日志信息,1
为输出进度条记录,2
为每个epoch
输出一行记录。
我们还可以通过train_history.history
来获取训练过程中的一些指标数据。
history
是一个字典类型数据,包含了4个Key:loss
、accuracy
、val_loss
和val_accuracy
,分别表示训练集上的损失、准确率和验证集上的损失和准确率。它们的值都是一个列表,记录了每个周期该指标的具体数值。比如本例子的输出就是:
{'loss': [0.36542361974716187,0.16213099658489227,0.11819229274988174,0.09180226922035217,0.07720495760440826,0.06569258868694305,0.05359013006091118,0.04583737626671791,0.03984333202242851,0.0345105342566967],'accuracy': [0.8956249952316284,0.9523333311080933,0.9642083048820496,0.9711666703224182,0.9759166836738586,0.979520857334137,0.9833124876022339,0.9855208396911621,0.9870625138282776,0.9889166951179504],'val_loss': [0.19308912754058838,0.15329642593860626,0.12567788362503052,0.11830687522888184,0.10141497850418091,0.11186043173074722,0.10655724257230759,0.10808669775724411,0.10833317041397095,0.12016895413398743],'val_accuracy': [0.9438333511352539,0.952833354473114,0.9645000100135803,0.9646666646003723,0.9710833430290222,0.9669166803359985,0.9715833067893982,0.9695000052452087,0.9702500104904175,0.9696666598320007]}
可视化结果
def show_train_history(train_history,train_metric,val_metric):plt.plot(train_history.history[train_metric])plt.plot(train_history.history[val_metric])plt.title('Train History')plt.ylabel(train_metric)plt.xlabel('Epoch')plt.legend(['train','validation'],loc='upper left')plt.show()show_train_history(train_history,'loss','val_loss')
show_train_history(train_history,'accuracy', 'val_accuracy')
模型评估
test_loss,test_acc=model.evaluate(test_images,test_labels_ohe,verbose=2)
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
相关文章
- TCP粘包,UDP不存在粘包问题
有关TCP和UDP 粘包 消息保护边界在socket网络程序中,TCP和UDP分别是面向连接和非面向连接的。TCP的socket编程,收发两端(客户端和服务器端)都要有一一成对的socket,因此,发送端为了将多个发往接收端的包,更有效的发到对方,使用了优化方法(Nagle算法),将多次间隔较小…...
2024/4/19 10:07:53 - KMP与题目练习
最长相等前后缀是决定我们移位的关键 而且next数组的数值只与子串本身有关。 所以next[i]j,含义是:下标为i 的字符前的字符串最长相等前后缀的长度为j。 练手写法 #include<iostream> using namespace std; int ne[1000010]; typedef struct{char data[1000…...
2024/4/15 15:32:39 - HashMap的容量初始值要如何设置?
HashMap的容量初始值要如何设置? Java中的集合框架是每一个java程序员使用很多的,其中hashMap的使用也是很多的,我之前也写过一篇对hashMap源码进行比较详细分析的博客:链接,读者可以参考学习。然后有看过阿里编程规范的应该知道…...
2024/4/15 15:32:54 - 键盘行的题目
我们为每一个英文字母标记其对应键盘上的行号,然后检测字符串中所有字符对应的行号是否相同。我们可以预处理计算出每个字符对应的行号。遍历字符串时,统一将大写字母转化为小写字母方便计算。...
2024/4/16 17:58:26 - Android学习 游戏开发之打地鼠(终)(五,排行榜和游戏音效)
游戏的基本功能都已经实现了,最后来说一说排行榜的显示和游戏音效的添加。 排行榜的显示主要用的Android中一个比较重要的控件ListView。ListView的使用还是比较简单的,第一步在布局文件中建立一个ListView的节点,在代码中通过ID得到该控件。第二步给该控件设置一个适配器,…...
2024/4/18 1:22:49 - Centos7安装mysql5.6、mysql5.7和mysql8多个版本并共存
参考:win10同时安装mysql5.6、mysql5.7以及mysql8多个版本 1.下载安装包 下载地址:https://downloads.mysql.com/archives/community/ 注意,不要下载RPM包,而是下载编译好的二进制包,如下图: 2.解压并重命…...
2024/4/27 23:46:33 - [经验总结]对于存储形式的优化 例PTA 7-3 冰岛人
7-3 冰岛人 (25 分) 题目描述 2018年世界杯,冰岛队因1:1平了强大的阿根廷队而一战成名。好事者发现冰岛人的名字后面似乎都有个“松”(son),于是有网友科普如下: 冰岛人沿用的是维京人古老的父系姓制,孩…...
2024/4/27 21:44:18 - GUI加法计算器
GUI能实现加法运算的小程序 package com.yuecheng.lesson01;import java.awt.*; import java.awt.event.ActionEvent; import java.awt.event.ActionListener;//写一个简易计算器 public class TestCale {public static void main(String[] args) {Calculator calculator new…...
2024/4/15 15:32:39 - 实体店如何做抽奖促销。抽奖拓客如何裂变引流。
实体店在开始做抽奖促销活动的时候,首先要弄清楚做抽奖活动的目的是什么?是针对老客户的回购率,还是来增加新客户,所以在做促销活动的时候一定要想清楚! 实体店应该抓住每次的活动机会去做好老客户的维护和增加新客户…...
2024/4/18 8:57:05 - impala查询性能优化
查看表和列的统计信息:(适用于hive表,kudu表,hbase外表)compute stats tbl_nm; impala优化器。执行之后可能会解决impala查询该表爆内存的错误。并且可以执行下面两个指令. compute stats是检查impala中的表数据,因此如果hive数据更新了还是得先refresh table,然后再执行co…...
2024/4/23 18:52:51 - Windows服务器下nginx重置配置文件
前几天单位数据库挂了,虽说有从库,但告诉我,要修改配置文件,下午才能顶上来。 果然面对这样高科技的构架设计,我还是太年轻了。 刚巧最近学习了nginx,能不能用负载均衡办法迅速切换数据库呢?以…...
2024/4/21 23:12:14 - 分布式事务之两阶段提交
两阶段提交协议 两阶段提交协议把分布式事务分为两个阶段,一个是准备阶段,另一个是提交阶段;准备阶段和提交阶段都是由事务管理器发起的;我们可以将事务管理器称为协调者,将资源管理器称为参与者。 流程 准备阶段&a…...
2024/4/15 15:32:29 - 变量的基础
变量的初始化:声明 赋值 var myname pink老师; console.log(myname); 关键字已经有特殊意义,不能够作为变量名使用 尽量不要使用name做变量名,一些游览器有特殊意义...
2024/4/19 21:37:49 - django 配置mysql数据库
Python 安装配置数据库操作的库 pip install mysqlclientpip install PyMySQL 创建数据库 进入mysql数据库执行 create database 数据库名 default charset utf8 (插入中文需要 ) 通常数据库名跟项目名保持一致 settings.py里进行数据库的配置 修改…...
2024/4/15 15:32:54 - windows,ubuntu双系统下卸载ubuntu系统
1. 查看bios模式 点击 winR 键 再输入 msinfo32 如果你是传统模式,即MBR的,你可以下载EasyBCD,但不知道行不行。 如果你跟我一样是UEFI的,那你可以下载EasyUEFI,我验证过可行。 蓝奏云链接: https://di…...
2024/4/15 15:32:29 - Java面试手册V2.0+突击V3.0知识点整理(三十三) 附封面图片
1. 接收路径参数用哪个注释? PathVariable 2. Cacheable注解 用来标记缓存查询 3. 清空缓存的注解 CacheEvict 4. Component注解 泛指组件,不好归类时,可以用它 5. BeanFactory和ApplicationContext区别 BeanFactoryApplicationContext使…...
2024/4/15 15:32:54 - python实现tcp/ip通信
...
2024/4/15 15:33:40 - MindSpore ResNet50性能调优分享
转载地址:https://bbs.huaweicloud.com/forum/thread-165718-1-1.html 作者:ttandtt 网络训练跑通了,精度OK了,对很多人来说可能已经万事大吉了,但如果网络需要在生产环境跑,还有一个点不得不去关注&…...
2024/4/15 15:33:45 - 指数退避和AIMD为什么都青睐数字2
这是一个有意思的话题。 无论是指数退避还是AIMD,都涉及到了数字2。指数退避将当前等待时间乘以2,AIMD将当前cwnd除以2。这就有意思了,为什么是2? 我曾将AIMD与指数退避相联系,AIMD是指数退避的零存整取版本…...
2024/4/15 15:33:45 - python:百元百鸡
代码:...
2024/4/25 3:39:44
最新文章
- php 获取网页数据
PHP preg_match_all() 函数 | 菜鸟教程 //$file是file_get_contents()获取到网页所有内容; //$mat是接收正则匹配到的内容; $arr preg_match_all(/<li>(.*)<\/li>/U,$file,$mat);$arr $mat[0]; 通过preg_match_all获取到内容后ÿ…...
2024/4/28 0:52:19 - 梯度消失和梯度爆炸的一些处理方法
在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言,在此感激不尽。 权重和梯度的更新公式如下: w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...
2024/3/20 10:50:27 - 解析大语言模型训练三阶段
大语言模型的训练过程一般包括3个阶段:预训练(Pre-training)、SFT(有监督的微调,Supervised-Finetuning)以及RLHF(基于人类反馈的强化学习,Reinforcement Learning from Human Feedb…...
2024/4/23 6:25:26 - 最新在线工具箱网站系统源码
内容目录 一、详细介绍二、效果展示1.部分代码2.效果图展示 三、学习资料下载 一、详细介绍 系统内置高达72种站长工具、开发工具、娱乐工具等功能。此系统支持本地调用API,同时还自带免费API接口, 是一个多功能性工具程序,支持后台管理、上…...
2024/4/27 9:59:44 - 【外汇早评】美通胀数据走低,美元调整
原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...
2024/4/26 18:09:39 - 【原油贵金属周评】原油多头拥挤,价格调整
原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...
2024/4/26 20:12:18 - 【外汇周评】靓丽非农不及疲软通胀影响
原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...
2024/4/26 23:05:52 - 【原油贵金属早评】库存继续增加,油价收跌
原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...
2024/4/27 4:00:35 - 【外汇早评】日本央行会议纪要不改日元强势
原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...
2024/4/27 17:58:04 - 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响
原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...
2024/4/27 14:22:49 - 【外汇早评】美欲与伊朗重谈协议
原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...
2024/4/26 21:56:58 - 【原油贵金属早评】波动率飙升,市场情绪动荡
原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...
2024/4/27 9:01:45 - 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试
原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...
2024/4/27 17:59:30 - 【原油贵金属早评】市场情绪继续恶化,黄金上破
原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...
2024/4/25 18:39:16 - 【外汇早评】美伊僵持,风险情绪继续升温
原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...
2024/4/25 18:39:16 - 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势
原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...
2024/4/26 19:03:37 - 氧生福地 玩美北湖(上)——为时光守候两千年
原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...
2024/4/26 22:01:59 - 氧生福地 玩美北湖(中)——永春梯田里的美与鲜
原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...
2024/4/25 18:39:14 - 氧生福地 玩美北湖(下)——奔跑吧骚年!
原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...
2024/4/26 23:04:58 - 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!
原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...
2024/4/27 23:24:42 - 「发现」铁皮石斛仙草之神奇功效用于医用面膜
原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...
2024/4/25 18:39:00 - 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者
原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...
2024/4/26 19:46:12 - 广州械字号面膜生产厂家OEM/ODM4项须知!
原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...
2024/4/27 11:43:08 - 械字号医用眼膜缓解用眼过度到底有无作用?
原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...
2024/4/27 8:32:30 - 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...
解析如下:1、长按电脑电源键直至关机,然后再按一次电源健重启电脑,按F8健进入安全模式2、安全模式下进入Windows系统桌面后,按住“winR”打开运行窗口,输入“services.msc”打开服务设置3、在服务界面,选中…...
2022/11/19 21:17:18 - 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。
%读入6幅图像(每一幅图像的大小是564*564) f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...
2022/11/19 21:17:16 - 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...
win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面,在等待界面中我们需要等待操作结束才能关机,虽然这比较麻烦,但是对系统进行配置和升级…...
2022/11/19 21:17:15 - 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...
有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows,请勿关闭计算机”的提示,要过很久才能进入系统,有的用户甚至几个小时也无法进入,下面就教大家这个问题的解决方法。第一种方法:我们首先在左下角的“开始…...
2022/11/19 21:17:14 - win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...
置信有很多用户都跟小编一样遇到过这样的问题,电脑时发现开机屏幕显现“正在配置Windows Update,请勿关机”(如下图所示),而且还需求等大约5分钟才干进入系统。这是怎样回事呢?一切都是正常操作的,为什么开时机呈现“正…...
2022/11/19 21:17:13 - 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...
Win7系统开机启动时总是出现“配置Windows请勿关机”的提示,没过几秒后电脑自动重启,每次开机都这样无法进入系统,此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一:开机按下F8,在出现的Windows高级启动选…...
2022/11/19 21:17:12 - 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...
有不少windows10系统用户反映说碰到这样一个情况,就是电脑提示正在准备windows请勿关闭计算机,碰到这样的问题该怎么解决呢,现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法:1、2、依次…...
2022/11/19 21:17:11 - 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...
今天和大家分享一下win7系统重装了Win7旗舰版系统后,每次关机的时候桌面上都会显示一个“配置Windows Update的界面,提示请勿关闭计算机”,每次停留好几分钟才能正常关机,导致什么情况引起的呢?出现配置Windows Update…...
2022/11/19 21:17:10 - 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...
只能是等着,别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚,只能是考虑备份数据后重装系统了。解决来方案一:管理员运行cmd:net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...
2022/11/19 21:17:09 - 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?
原标题:电脑提示“配置Windows Update请勿关闭计算机”怎么办?win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢?一般的方…...
2022/11/19 21:17:08 - 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...
关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!关机提示 windows7 正在配…...
2022/11/19 21:17:05 - 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...
钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...
2022/11/19 21:17:05 - 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...
前几天班里有位学生电脑(windows 7系统)出问题了,具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面,长时间没反应,无法进入系统。这个问题原来帮其他同学也解决过,网上搜了不少资料&#x…...
2022/11/19 21:17:04 - 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...
本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法,并在最后教给你1种保护系统安全的好方法,一起来看看!电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中,添加了1个新功能在“磁…...
2022/11/19 21:17:03 - 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...
许多用户在长期不使用电脑的时候,开启电脑发现电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机。。.这要怎么办呢?下面小编就带着大家一起看看吧!如果能够正常进入系统,建议您暂时移…...
2022/11/19 21:17:02 - 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...
配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!配置windows update失败 还原更改 请勿关闭计算机&#x…...
2022/11/19 21:17:01 - 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...
不知道大家有没有遇到过这样的一个问题,就是我们的win7系统在关机的时候,总是喜欢显示“准备配置windows,请勿关机”这样的一个页面,没有什么大碍,但是如果一直等着的话就要两个小时甚至更久都关不了机,非常…...
2022/11/19 21:17:00 - 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...
当电脑出现正在准备配置windows请勿关闭计算机时,一般是您正对windows进行升级,但是这个要是长时间没有反应,我们不能再傻等下去了。可能是电脑出了别的问题了,来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...
2022/11/19 21:16:59 - 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...
我们使用电脑的过程中有时会遇到这种情况,当我们打开电脑之后,发现一直停留在一个界面:“配置Windows Update失败,还原更改请勿关闭计算机”,等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢࿰…...
2022/11/19 21:16:58 - 如何在iPhone上关闭“请勿打扰”
Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...
2022/11/19 21:16:57