ICLR 2020趋势分析:NLP中更好&更快的Transformer
文章目录
- 自注意力变体
- Long-Short Range Attention
- 使用子树掩码的树结构的注意力
- 哈希注意力
- 多跳注意力
- 训练目标
- 识别替换任务
- 词和句子结构任务
- 类型限制的实体替换
- 嵌入
- 位置感知的复杂词向量
- 层次嵌入
- 分解的嵌入参数
- 模型结构
- 压缩记忆
- 可逆层
- 交叉层参数共享
- 自适应深度预测
- 总结
转载来源:https://mp.weixin.qq.com/s/hbx4DryEaaB0TlJPH7uyyA
导读:介绍了ICLR2020中对Transformer的改进,从自注意力变体,训练目标,模型结构这三个方面对Transformer进行了提升。
Transformer结构首次提出是在“Attention is All you Need”中,是一种有效的替代序列语言建模(LSTMs) 的方法,自提出以来,已在自然语言处理领域无处不在,推动了最下游的最先进的语言学习任务的发展。
今年的国际学习表示会议ICLR对原版的Transformer及其更近期的变体BERT和Transformer-XL进行了许多很好的改进。这些改进的建议是针对Transformer的一些众所周知的弱点,即:
- 优化自注意力计算。
- 在模型架构中注入语言学驱动中的归纳偏差。
- 使模型的参数更高效。
这篇文章想要总结并提供这些贡献的一个概述,着重描述了自然语言处理开发中更好更快的模型的发展趋势。
自注意力变体
缩放点积自注意力是标准的Transformer层的主要组件之一,支持依赖关系的建模,而不管它们在输入中的距离。self-attention把输入激活向量A映射到querys Q和keys K以及values V上,维度为dk,返回一个加权版本的V:
在多头自注意力的变体中,注意力函数并行的应用在queries,keys和values的投影上,并学习投影矩阵W,得到的输出拼接起来再映射一次,得到最后的值:
本节将介绍自注意力的一些变体,这些变体使其在语言应用的上下文中更高效。
Long-Short Range Attention
论文:Lite Transformer with Long-Short Range Attention by Wu, Liu et al.
传统的self-attention被认为是有冗余的,经验表明,句子中的本地关系被过于关注了。这可以通过标准卷积更加有效的进行建模。同样的结论在On the Relationship between Self-Attention and Convolutional Layers也有,同时,这个精简可以在某些情况下帮助提升模型的能力,但它不适用于较轻量级的应用。
Long-Short Range Attention (LSRA) 通过将输入沿通道维度分成两部分,并将这两个部分分别提供给两个模块,从而提高了计算效率:全局提取器使用标准的自注意力,局部提取器使用轻量级的深度卷积。作者给出了一个2×简化的模型的总体计算量,使它适合移动端的配置。
使用子树掩码的树结构的注意力
论文:Tree-Structured Attention with Hierarchical Accumulation by Nguyen et al.
标准Transformer的一个缺点是没有考虑到语言的层次结构的归纳偏差。这在一定程度上是由于操作树状结构的困难造成的,这种结构通常是通过循环或递归机制来建模的,同时又保持了自注意力的并行的时间复杂度。
提出的解决方案利用输入文本的集合解析来构建隐藏状态树,使用层次累积来构建非终结符的值,作为树中较低表示的聚合。最终的输出表示是通过执行分支级表示的加权聚合来构建的。
哈希注意力
论文:Reformer: The Efficient Transformer by Kitaev et al.
在自注意力方程中,因子QKT表示一个bottleneck,对长度为L的输入序列在计算复杂度和内存复杂度上为O(L2)。这有效地阻碍了长序列建模的可能性。
Reformer建议将每个query参与的候选池限制为通过局部敏感哈希找到的一小组邻居。由于LSH bucketing采用随机投影,类似的bin有时可能会落在不同的领域上,建议使用多轮并行哈希的方法来缓解这个问题。使用LSH注把计算成本降低为O(LlogL),这样允许模型操作更长的时间序列。
多跳注意力
论文:Transformer-XH: Multi-Evidence Reasoning with eXtra Hop Attention by Zhao et al.
虽然Transformers被优化为在单个序列或成对序列上运行,但它们很难泛化到多个文本片段中的情况,例如在具有挑战性的多跳问题回答中。
Transformer-XH引入了一种新的注意力变体多跳注意力,它可以应用于通过边连接起来的文本序列图(例如超链接)。这种新的注意机制在每个序列的开头使用特殊的“[CLS]”token作为一个注意力hub,它处理图中所有其他相互连接的序列。然后将得到的表示与标准自注意力通过线性投影得到的表示相结合。由此产生的模型显示,对于需要对图进行推理的任务,新注意力机制引入了额外的计算,但结果却有了显著的改进。
训练目标
Transformer模型的预训练通常是通过多个非监督目标、利用大量非注释文本的方法来实现的。用于此目的的最常见任务是自回归语言建模,也称为标准语言建模(LM),以及掩码输入自编码,通常称为掩码语言建模(MLM)。
标准Transformer的实现及其GPT变体采用自回归方法,利用序列x=(x1…,xL)中的单向上下文(向前或向后)来估计下一个token的概率:
相反,类似于BERT的方法使用双向上下文来恢复一小部分被特殊的==[MASK]== token人为替换的输入。这种变体被证明对下游的自然语言理解任务特别有效。
除了单词级建模外,由于许多重要的语言应用程序需要理解两个序列之间的关系,因此通常会在训练过程中增加一个句子级分类任务,如next sentence prediction (NSP)。
虽然这些任务似乎会产生有意义的token和句子级的表示,但本节介绍的许多方法都提出了更好的替代方法,使学习更有效,并以输入的结构和内容为基础。
识别替换任务
论文:ELECTRA: Pre-training Text Encoders as Discriminators Rather Than Generators by Clark et al.
在类似于bert的模型中使用的掩码策略是非常低效的,只使用了大约15%的输入文本来完成MLM任务。然而,掩码数据的百分比很难增加,因为有太多的掩码token可能会降低整体上下文的信息。
ELECTRA提出了一个简单而有效的方法来应对这种低效率。训练一个小的掩码语言模型,然后作为一个生成器,用它的预测填充输入中的掩码的token,就像在普通的MLM中一样。然后,主模型的新任务将是一项“识别性”的任务:模型必须检测出哪些token被生成器替换,而不是预测掩码的token。这允许利用整个输入序列进行训练。正如作者所提到的,在相同的预算下,这种方法始终优于MLM的预训练。
词和句子结构任务
论文:StructBERT: Incorporating Language Structures into Pre-training for Deep Language Understanding by Wang et al.
如前所述,Transformers不会清楚的说明输入中存在的结构。当树型结构的注意力在模型架构中注入了严重的层次偏差时,StructBERT采用了两种较轻但有效的方法,使产生的表示更了解语言的潜在顺序性。
第一个是字结构目标,其中输入中的三元组是随机打乱的,需要重建它们的原始位置。这和普通的MLM并行完成。句子结构目标是一个ERNIE 2.0中介绍的句子重排序的较轻的变体,和ALBERT中介绍的一样:给出两个句子(S1, S2)作为输入,我们要求模型区分S2在前面还是后面,还是无关的。这个新任务扩展了标准的NSP,它被认为太容易学习有意义的句子关系。这导致了对自然语言理解的标准基准的重大改进。
类型限制的实体替换
论文:Pretrained Encyclopedia: Weakly Supervised Knowledge-Pretrained Language Model by Xiong et al.
虽然预训练的Transformer模型隐式地捕获了真实世界的知识,但是它们的标准训练目标并没有明确地考虑到在真实世界设置上进行健壮推理所需的以实体为中心的信息。
类型约束的实体替换是一种弱监督的方法,其中文本中的随机实体替换为来自Wikidata的具有相同实体类型的其他实体。然后,该模型使用一个与ELECTRA相似的判别目标来确定哪些实体被替换了。这是与MLM一起在多任务设置中完成的,作者给出了在需要更深入的实体理解的场景上的显著改进,如开放域QA和实体类型化。
嵌入
原始的Transformer依赖于两组embeddings来表示输入序列:
-
学习word embeddings用于词汇表中的每个token,作为模型的token向量表示。
-
固定的位置嵌入(PE),用于注入关于序列中token位置的信息。对于位置pos和维度i,它们对应于正弦周期函数,经验表明,这些函数的性能与学习到的嵌入相同,并被选择用于对更长的序列进行外推:
对于能够对多个输入段进行操作的类似于BERT的模型,使用第三组学到的段嵌入来区分属于不同句子的token。
所有这些嵌入都具有相同的维度,并汇总在一起以获得输入表示。本节介绍的方法旨在为嵌入注入更多的结构,或者优化它们的维度以获得更好的效率。
位置感知的复杂词向量
论文:Encoding word order in complex embeddings by Wang et al.
虽然PE在输入中捕捉不同的位置,但它们没有明确考虑这些位置之间的关系,即有序关系,如邻接或优先级。这个问题已经在Transformer-XL中得到了解决,它利用单词之间的相对距离,而不是原始位置索引。
一个建议的改进是将词嵌入推广到在位置上定义的连续函数,将解决方案扩展到复值域,以从更丰富的表示中获益。复值嵌入引入了振幅、频率和初始相位的新参数,这些参数决定了嵌入的各种特性,如位置灵敏度。实验结果表明,具有参数共享模式的复杂嵌入方法在不增加可训练参数的情况下,性能优于已有的嵌入方法。
层次嵌入
论文:Tree-Structured Attention with Hierarchical Accumulation by Nguyen et al.
在对树结构注意力的概述中,我们了解了如何使用层次累积来形成基于非终端节点的后代的表示。但是,这一程序的缺点是没有考虑到后代的层次结构。
使用层次嵌入注入这种结构偏差,将垂直和水平嵌入矩阵连接起来,分别表示分支内的层次顺序和子树中兄弟节点之间的关系。这些嵌入在注意力头之间共享,因此只占总参数的0.1%。
分解的嵌入参数
论文:ALBERT: A Lite BERT for Self-supervised Learning of Language Representations by Lan et al.
在最近的基于BERT和Transformer-XL的模型中,输入嵌入大小E与隐含层大小H相连,即E≡H。这是非常不切实际的,因为要增加用于学习上下文相关表示的隐藏表示的表达性,还应该增加嵌入矩阵M=V×E的大小,其中V是词汇表的大小。即使对于相对较小的隐层维度,这也会导致数十亿个参数在训练期间很少更新。
ALBERT 提出E和V之间插入一个投影使得这两个维度独立,当H≫E的时候,这是一个特别有效的减少参数的方法。因此,E=128和H=768的ALBERT base在许多下游任务上的性能与相同配置的BERT base相当,使用的参数减少了21M(表3中的89M与BERT的110M)。
模型结构
最初的Transformer架构由编码器和解码器组成,每个编码器和解码器都由一系列相同的层组成,这些层将输入嵌入转换为具有相同维度的输出(因此得名Transformer)。
Transformer编码器的每一层由两个子层、一个多头自注意力和一个前馈网络组成,被残差连接包围,然后进行层归一化。解码器包括第三层,该层在编码器输出上执行多头自注意力,并修改原始自注意力层,以防止注意到未来的上下文,如上述自回归语言建模目标所要求的那样。
Transformer的双向变体去掉了解码器结构,只关注于编码器,以生成各种任务(包括MLM)所需的上下文嵌入。
Transformer-XL特别介绍了Transformer网络的内存概念,其中在以前的段中获得的隐藏状态被重视和重用,以更好地建模长期依赖,防止上下文分段。
以下方法试图在当前结构的基础上进行构建,以改进远程建模、减少参数数量或优化模型执行的计算。
压缩记忆
论文:Compressive Transformers for Long-Range Sequence Modelling by Rae et al.
在Transformer-XL的循环记忆方法中,旧的记忆被丢弃,以先入先出的方式存储新的记忆。这种方法只考虑最近的情况,没有考虑可能被丢弃的信息的相关性。
压缩Transformers通过添加一个新的压缩记忆来构建记忆的概念,该记忆存储旧记忆的粗糙表示,而不是丢弃它们。作者尝试了多种压缩函数的替代方法,最后选择了注意力重构损失,它丢弃了网络没有参与的信息。压缩记忆的使用显示出对不常见单词建模的巨大改进,有经验证据表明,网络学习通过压缩机制来保存重要信息。
可逆层
论文:Reformer: The Efficient Transformer by Kitaev et al.
可逆性背后的主要思想是,仅使用下面的层和模型参数的激活,就可以恢复网络任何层中的激活。当应用于Transformer模型时,这个特性特别有趣,因为它们通常由一大堆堆叠的层组成,并且它们的内存复杂性随层数线性增长。
Reformer在Transformer结构中引入可逆性,将注意力层和前馈子层结合成一个单一的可逆层。这样允许只存储最顶层的激活,并通过在反向传播过程中用可逆层来恢复所有其他层,使得模型深度与内存无关。通过在前馈和可逆层中分块独立计算,进一步提高了内存复杂度。
交叉层参数共享
论文:ALBERT: A Lite BERT for Self-supervised Learning of Language Representations by Lan et al.
一个简单但非常有效的方法来大大减少深层Transformer模型中的参数数量,那就是跨多个层共享参数,正如在ICLR 2019会议上发表的Universal Transformer论文中所示。
ALBERT作者对自注意子层和前馈子层的跨层参数共享进行了实验,发现共享权矩阵有助于将模型的总参数数降低7倍(对于嵌入大小E=128),而对最终性能的影响很小。通过使用参数共享,实现了跨层的平滑过渡,有效地稳定了网络参数。
自适应深度预测
论文:Depth-Adaptive Transformer by Elbayad et al.
当前模型为每个输入执行固定数量的计算,而不考虑每个序列的底层复杂性。这个问题已经在Universal Transformer中得到了强调,它提出了一个具有**自适应计算时间(ACT)**的相同层的重复应用,但是由此导致的每层权重的增加大大降低了整体网络速度。
深度自适应Transformer解决了这个问题,使用标准的Transformer对序列进行编码,使用可变数量的Transformer进行解码。为此,在解码器的每个重复的层上附加一个分类器,然后使用计算机视觉领域首次引入的anytime prediction方法对整个设置进行对齐和混合训练(见图)。作者探索了不同的机制,自适应地同时控制在序列层级和每个token的基础上的计算量,并得出结论,自适应的减少超过75%的解码器层可以对机器翻译任务的准确性没有任何损失。
总结
ICLR2020引入的许多方法提供了广泛适用的解决方案,以解决最初Transformer架构的特定问题,从自注意力计算到模型结构本身。这些方法中有许多似乎对Transformer的未来开发很有希望,而且最重要的是,一旦这些方法中的许多被包含到一个架构中,它们很可能会带来互补的改进。我对ICLR 2021的希望是看到更多的增量工作,将已经存在的策略组合在一起,突出它们之间最有效的组合。
英文原文:http://gsarti.com/post/iclr2020-transformers/
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
相关文章
- 手把手教你安装Camtasia Studio 8!!!
文章目录1.安装Camtasia Studio 81.1下载Camtasia Studio 8的地址1.2下载文件图片教学2.解压文件夹2.1解压文件图片教学3.安装教程 1.安装Camtasia Studio 8 1.1下载Camtasia Studio 8的地址 下载的话点击下方的进入网盘复制下方的提取码就可以直接进行下载了 链接: 进入网盘. …...
2024/4/24 9:28:34 - 前序线索化二叉树
前序化二叉树的方法 其实这里的重点就是设置一个变量来记录当前节点的上一个节点,然后再进行处理,重中之重就是画图!!! 还有就是要明白递归是什么,递归式回溯!!! 在上一篇文章中已经讲过线索化二叉树和中序线索化二叉树的方法 现在在这里再讲一下前序线索化二叉树以及…...
2024/4/24 9:28:34 - leetcode5-17每日一题:课程表 II
由于我暂时对图论方面的知识不够熟悉,所以这个题目我并不知道如何使用BFS和DFS两种方法去实现,通过遍历来做在python的龟速加持下,超出了时间限制,因此今天的重点是对知识点进行熟悉,同时争取看懂并理解代码及背后的算法意义。 BFS和DFS两种方法 虽然之前有看过一点数据结…...
2024/4/24 9:28:32 - PS制作微信公众号封面
前言 学习目的 1) 看到大佬发微信公众号时,会用纯色背景图片作为封面,嗯,我也可以。 2)方便日后制作微信公众号封面 学习路线(怎么学) 1) 百度一 准备 一台电脑 PS软件 二 内容 2.1 打开ps,点击左上角的|新建。2.2 新建格式为:而网上说的尺寸都是很早之前的尺寸了,早…...
2024/4/24 9:28:31 - Docker容器与虚拟化技术——容器日志实战
容器日志实战一、容器日志摘要 通常Docker的日志信息存储在计算机本地,当在分布式环境当中,日志会被分散到不同的服务器,导致日志查阅繁琐及效率低下,最好的办法就是集中化的日志管理方式。使用rsyslog可以将所有服务器上的Docker日志手机汇总到一台服务器上统一管理。二、…...
2024/4/24 9:28:30 - docker部署vue项目(基于Nginx)
1,获取Nginx镜像docker pull nginx2,创建Nginx文件夹存放conf,html,Dockerfile文件(我的目录为/root/nginx)mkdir conf htmltouch Dockerfile3,将vue项目编译,生成dist文件夹,将整个文件夹上传到Nginx目录下;如图:4,编写Dockerfile文件vi Dockerfile添加一下内容:FRO…...
2024/4/24 9:28:30 - 破解 MariaDB5.5 数据库的 root 登录密码
导读本文档以实战的形式介绍破解 MariaDB5.5 数据库的 root 登录密码忘记 root 登录密码[root@localhost ~]# mysql -uroot -p123 ERROR 1045 (28000): Access denied for user root@localhost (using password: YES)查找并运行 mysqld_safe 程序绕开 Maria…...
2024/4/24 9:28:36 - PAT 1034 Head of a Gang (30分) 图的连通分量 + DFS
题目 One way that the police finds the head of a gang is to check people’s phone calls. If there is a phone call between A and B, we say that A and B is related. The weight of a relation is defined to be the total time length of all the phone calls made b…...
2024/4/24 9:28:27 - Ubuntu添加分辨率
安装好ubuntu 16.04桌面版后,发现屏幕分辨率调整选项里没有1920*1080这一选项,经过一番查找,可通过如下方式进行屏幕分辨率设置。以下操作均在ubuntu 16.04桌面版操作,不要用远程连接操作,否则xrandr命令会无法监测到显示器信息。Ctrl+Alt+T,打开终端1、输入命令:“cvt …...
2024/4/16 11:04:24 - 应届生.Net笔试题+面试+英语能力
.Net笔试题与面试问题 一、笔试 1、简述private、protected、public、internal修饰符的访问权限。 2、用最高效的方法算出2*8等于几 3、正则表达式的特殊符号中“\d{7,13}”表示? 4、ajax是什么?ajax的交模型?同步和异步的区别?如何解决跨域问题? 5、C#常用的调用webservi…...
2024/4/20 3:54:04 - python数据分析基本语法:数据类型转换,pandas分组,级联合并操作等
文章目录1.删除无用的列2.数据类型转换成时间序列类型3.将某列做为原始数据的行索引4.定位条件5.计算滚动均值6.pandas分组7.pandas处理空值8.pandas处理重复值9.pandas处理异常值10.python生成日历11.pandas级联操作12.pandas合并操作13.pandas数据排序14.pandas生成随机数15.…...
2024/4/16 11:04:29 - 巧妙利用Vue.mixin()实现Vuex
实现原理:Vue.mixin()和Vue实例很相似,就是它也有生命周期函数。不过它的生命周期很特别,执行的时候,所有Vue实例和组件都会调用它的生命周期函数。利用这一特点,我们可以实现Vuex。 <!DOCTYPE html> <html><head><meta charset="UTF-8"&g…...
2024/4/16 11:04:34 - Request解析
1. Request request对象和response对象的原理request和response对象是由服务器创建的。我们来使用它们 request对象是来获取请求消息,response对象是来设置响应消息request对象继承体系结构request功能 获取请求消息数据获取请求行数据* GET /test/demo1?name=zhangsan HTTP/…...
2024/4/16 11:05:15 - 在Ubuntu下运行python的第一个程序
前言:在Ubuntu下安装包时,速度非常慢,几兆的包我硬是加载了一个晚上,刚开始我以为是网速的原因,还研究了一下网络测速,后来在设置->软件与更新将下载站点换成aliyun就行了以下是正文: 准备工作: sudo apt-get install python-pip(pip作为第三方工具,包含了python运…...
2024/4/22 15:49:04 - 6、Dcoker 容器数据卷用DockerFile添加
文章目录1、根目录下创建mydocker目录并进入2、File 构建3、build 后生成新的镜像4、运行容器生成容器卷5、查看新建的容器卷6、查看宿主机上新建的文件7、容器目录中新建文件,在宿主机中可以共享看到 1、根目录下创建mydocker目录并进入 cd / mkdir mydocker2、File 构建 # v…...
2024/4/18 21:34:36 - Timer和TimerTask源码解读(面试题:双重定时器)
Timer和TimerTask源码解读 Timer是一种定时器工具,用来在一个后台线程计划执行指定任务。它可以计划执行一个任务一次或反复多次。 TimerTask是一个实现了Runnable接口的抽象类,代表一个可以被Timer执行的任务。 Timer和TimerTask基本使用 使用Timer线程实现和计划执行一个任…...
2024/4/16 11:05:15 - 汇编程序求助,window.inc报错
求助各位大佬帮忙看看 汇编文件asm,生成win32.exe的过程中,要包括windows.inc这个文件,为什么会报这么多错,是版本的问题吗,要怎么解决?谢谢各位大佬!...
2024/4/24 9:28:34 - Leetcode 441.排列硬币(Arranging Coins)
Leetcode 441.排列硬币 1 题目描述(Leetcode题目链接)你总共有 n 枚硬币,你需要将它们摆成一个阶梯形状,第 k 行就必须正好有 k 枚硬币。 给定一个数字 n,找出可形成完整阶梯行的总行数。 n 是一个非负整数,并且在32位有符号整型的范围内。 n = 5硬币可排列成以下几行:…...
2024/4/26 22:27:06 - mkvirtualenv命令改变虚拟环境存储位置
说明使用mkvirtualenv 命令创建虚拟环境时,默认创建位置在C:\Users\你的计算机名目录下,采用下面的方式可以修改虚拟环境存储位置 步骤先要明确的是我们在创建虚拟环境时,使用的命令为mkvirtualenv,不妨先使用文本编辑器打开该文件看下在该文件中第24行的位置可以看到,它的默…...
2024/4/24 9:28:28 - 笔记:spring的4大基础依赖包简解
基本概念性的东西,还是用笔记存留下来好点。即使知道,但太久不看,总会忘的。spirng框架基本结构图:其中Core Container下包含4大主要依赖包:core,beans,context,spring-expressionCore:spring框架的基本依赖包,提供了主要的基础服务,包括①IOC(控制反转)和②AOP(面…...
2024/4/24 9:28:23
最新文章
- C语言数据类型的介绍,类型的基本归类,整型在内存中的存储,原码、反码、补码,大小端等介绍
文章目录 前言一、数据类型的介绍类型的意义 1. 类型的基本归类(1). 整型家族(2). 浮点数家族(3). 构造类型(4). 指针类型(5). 空类型 二、整型在内存中的存储…...
2024/4/27 0:35:10 - 梯度消失和梯度爆炸的一些处理方法
在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言,在此感激不尽。 权重和梯度的更新公式如下: w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...
2024/3/20 10:50:27 - [C++][算法基础]模拟队列(数组)
实现一个队列,队列初始为空,支持四种操作: push x – 向队尾插入一个数 x;pop – 从队头弹出一个数;empty – 判断队列是否为空;query – 查询队头元素。 现在要对队列进行 M 个操作,其中的每…...
2024/4/22 21:35:57 - 汽车疲劳测试试验平台技术要求(北重厂家)
汽车疲劳测试试验平台技术要求通常包括以下几个方面: 车辆加载能力:测试平台需要具备足够的承载能力,能够同时测试多种车型和不同重量的车辆。 动力系统:测试平台需要具备稳定可靠的动力系统,能够提供足够的力和速度来…...
2024/4/23 6:25:16 - 【外汇早评】美通胀数据走低,美元调整
原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...
2024/4/26 18:09:39 - 【原油贵金属周评】原油多头拥挤,价格调整
原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...
2024/4/26 20:12:18 - 【外汇周评】靓丽非农不及疲软通胀影响
原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...
2024/4/26 23:05:52 - 【原油贵金属早评】库存继续增加,油价收跌
原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...
2024/4/25 18:39:23 - 【外汇早评】日本央行会议纪要不改日元强势
原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...
2024/4/25 18:39:22 - 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响
原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...
2024/4/25 18:39:22 - 【外汇早评】美欲与伊朗重谈协议
原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...
2024/4/26 21:56:58 - 【原油贵金属早评】波动率飙升,市场情绪动荡
原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...
2024/4/25 16:48:44 - 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试
原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...
2024/4/26 16:00:35 - 【原油贵金属早评】市场情绪继续恶化,黄金上破
原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...
2024/4/25 18:39:16 - 【外汇早评】美伊僵持,风险情绪继续升温
原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...
2024/4/25 18:39:16 - 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势
原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...
2024/4/26 19:03:37 - 氧生福地 玩美北湖(上)——为时光守候两千年
原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...
2024/4/26 22:01:59 - 氧生福地 玩美北湖(中)——永春梯田里的美与鲜
原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...
2024/4/25 18:39:14 - 氧生福地 玩美北湖(下)——奔跑吧骚年!
原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...
2024/4/26 23:04:58 - 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!
原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...
2024/4/25 2:10:52 - 「发现」铁皮石斛仙草之神奇功效用于医用面膜
原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...
2024/4/25 18:39:00 - 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者
原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...
2024/4/26 19:46:12 - 广州械字号面膜生产厂家OEM/ODM4项须知!
原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...
2024/4/25 18:38:58 - 械字号医用眼膜缓解用眼过度到底有无作用?
原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...
2024/4/25 18:38:57 - 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...
解析如下:1、长按电脑电源键直至关机,然后再按一次电源健重启电脑,按F8健进入安全模式2、安全模式下进入Windows系统桌面后,按住“winR”打开运行窗口,输入“services.msc”打开服务设置3、在服务界面,选中…...
2022/11/19 21:17:18 - 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。
%读入6幅图像(每一幅图像的大小是564*564) f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...
2022/11/19 21:17:16 - 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...
win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面,在等待界面中我们需要等待操作结束才能关机,虽然这比较麻烦,但是对系统进行配置和升级…...
2022/11/19 21:17:15 - 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...
有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows,请勿关闭计算机”的提示,要过很久才能进入系统,有的用户甚至几个小时也无法进入,下面就教大家这个问题的解决方法。第一种方法:我们首先在左下角的“开始…...
2022/11/19 21:17:14 - win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...
置信有很多用户都跟小编一样遇到过这样的问题,电脑时发现开机屏幕显现“正在配置Windows Update,请勿关机”(如下图所示),而且还需求等大约5分钟才干进入系统。这是怎样回事呢?一切都是正常操作的,为什么开时机呈现“正…...
2022/11/19 21:17:13 - 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...
Win7系统开机启动时总是出现“配置Windows请勿关机”的提示,没过几秒后电脑自动重启,每次开机都这样无法进入系统,此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一:开机按下F8,在出现的Windows高级启动选…...
2022/11/19 21:17:12 - 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...
有不少windows10系统用户反映说碰到这样一个情况,就是电脑提示正在准备windows请勿关闭计算机,碰到这样的问题该怎么解决呢,现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法:1、2、依次…...
2022/11/19 21:17:11 - 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...
今天和大家分享一下win7系统重装了Win7旗舰版系统后,每次关机的时候桌面上都会显示一个“配置Windows Update的界面,提示请勿关闭计算机”,每次停留好几分钟才能正常关机,导致什么情况引起的呢?出现配置Windows Update…...
2022/11/19 21:17:10 - 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...
只能是等着,别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚,只能是考虑备份数据后重装系统了。解决来方案一:管理员运行cmd:net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...
2022/11/19 21:17:09 - 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?
原标题:电脑提示“配置Windows Update请勿关闭计算机”怎么办?win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢?一般的方…...
2022/11/19 21:17:08 - 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...
关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!关机提示 windows7 正在配…...
2022/11/19 21:17:05 - 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...
钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...
2022/11/19 21:17:05 - 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...
前几天班里有位学生电脑(windows 7系统)出问题了,具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面,长时间没反应,无法进入系统。这个问题原来帮其他同学也解决过,网上搜了不少资料&#x…...
2022/11/19 21:17:04 - 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...
本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法,并在最后教给你1种保护系统安全的好方法,一起来看看!电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中,添加了1个新功能在“磁…...
2022/11/19 21:17:03 - 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...
许多用户在长期不使用电脑的时候,开启电脑发现电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机。。.这要怎么办呢?下面小编就带着大家一起看看吧!如果能够正常进入系统,建议您暂时移…...
2022/11/19 21:17:02 - 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...
配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!配置windows update失败 还原更改 请勿关闭计算机&#x…...
2022/11/19 21:17:01 - 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...
不知道大家有没有遇到过这样的一个问题,就是我们的win7系统在关机的时候,总是喜欢显示“准备配置windows,请勿关机”这样的一个页面,没有什么大碍,但是如果一直等着的话就要两个小时甚至更久都关不了机,非常…...
2022/11/19 21:17:00 - 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...
当电脑出现正在准备配置windows请勿关闭计算机时,一般是您正对windows进行升级,但是这个要是长时间没有反应,我们不能再傻等下去了。可能是电脑出了别的问题了,来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...
2022/11/19 21:16:59 - 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...
我们使用电脑的过程中有时会遇到这种情况,当我们打开电脑之后,发现一直停留在一个界面:“配置Windows Update失败,还原更改请勿关闭计算机”,等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢࿰…...
2022/11/19 21:16:58 - 如何在iPhone上关闭“请勿打扰”
Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...
2022/11/19 21:16:57