公众号关注 “ML_NLP”
设为 “星标”,重磅干货,第一时间送达!

在这里插入图片描述

作者:哈工大SCIR 蒋润宇

简介

近年来NLP领域最让人印象深刻的成果,无疑是以谷歌提出的Bert为代表的预训练模型了。它们不断地刷新记录(无论是任务指标上,还是算力需求上),在很多任务上已经能超越人类平均水平,还具有非常良好的可迁移性,以及一定程度的可解释性。

例如,当我们需要在论文里解释为什么算法或者改动能够work的时候,一张基于attention的热力图显然更容易说明我们的代码究竟做到了什么。

图1 一种论文中常见的attention热力图

而目前主流的预训练模型,都是以17年谷歌提出的Transformer模型作为基础进行修改,作为自己的特征抽取器。可以说,Transformer自从出现以来就彻底改变了深度学习领域,特别是NLP领域。

本文主要介绍了Transformer以及其在近年来的一些优化变种。

Transformer

如果用一句话来介绍Transformer,那就是:“首个完全抛弃RNN的recurrence,CNN的convolution,仅用attention来做特征抽取的模型。”也就是论文标题所写的,《Attention Is All You Need》。

Attention机制在NLP领域的应用最早可以追朔到2014年,Bengio团队将Attention引入NMT(神经机器翻译)任务。但那时Attention仅仅是作为一项外挂结构,模型的核心构架还是RNN。而到了Transformer则完全地以Attention机制作为模型的基础构架,抛弃了之前的CNN和RNN的网络。

Transformer的基本构架如下图所示,其中,左半边是Encoder部分,右半边是Decoder部分。Transformer有6层这样的结构。

图2 Transformer详细构架

以翻译模型为例给出Transformer的总的结构图:

图3 Transformer整体构架

以上是对Transformer的整体介绍,下面将对Transformer各个创新之处进行讲解。

Attention

Transformer中一共使用了三次Attention。其中Decoder部分多一层比较特殊的Masked Attention。即在解码时,模型应当只知道当前中心词的上文,因此通过masking的方式,屏蔽中心词下文的内容,保持了自回归的特性。

Scaled Dot-Product Attention

Self-Attention本质上是通过为当前词引入其上下文的信息,以增强对当前词的表示,写入更多的信息。这点基本类似于2014年,Bengio团队将Attention引入NMT(神经机器翻译)。

在Transformer中,这部分是通过Attention(Q, K, V)实现的。其中Q是query,K是key,V是value。通过Q和K的点积的结果来体现上下文词分别对中心词的影响程度,再通过softmax进行归一化。

图4 Attention计算路径

Multi-Head Attention

Multi-Head Attention基本是完全创新之处。

图5 Multi-Head Attention计算路径

其会将原本512维的Q、K、V,通过8次不同的线性投影,得到8组低维的Qi、Ki、Vi,其维度均为64维。公式如下:

这样做由于每个注意力头的大小都相应地缩小了,实际上计算量并没有显著增加。

关于为什么使用多头注意力,而不是单头注意力,《Attention Is All You Need》作者认为:平均注意力加权降低了有效的分辨率,即它不能充分体现来自不同表示子空间的信息。而使用多头注意力机制有点类似于CNN中同一卷积层内使用多个卷积核的思想。可以增强模型对于文本在不同子空间中体现出的不同的特性,避免了平均池化对这种特性的抑制。

但是关于多头注意力机制是不是有用,为什么有用,目前还没有一个很好的解释。

有大量的研究表明,以Transformer为基础的Bert的特定层是有其独特的功能的,底层更偏向于关注语法,顶层更偏向于关注语义。既然在同一层Transformer关注的方面是相同的,那么对该层而言,不同的头关注点应该也是一样的。这就和作者的解释有些矛盾。

实际上,在《A Multiscale Visualization of Attention in the Transformer Model》这篇文章中,作者分析了前几层BERT的部分注意力头,如下图所示,结果显示,同一层中,总有那么一两个头关注的点和其他的头不太一样,但是剩下的头也相对趋同【考虑到同一层的注意力头都是独立训练的,这点就很神奇】。

图6 Bert的0-3层中,第0-5的head对于同样的输入所关注的内容。

而在《What Does BERT Look At? An Analysis of BERT’s Attention》一文中,作者分析了,同一层中,不同的头之间的差距,以及这个差距是否会随层数变化而变化。结果如下图所示,似乎可以粗略地得出结论,头之间的差距随着所在层数变大而减少,即层数越高,头越趋同。但遗憾的是,这个现象的原因目前没有比较好的解释。

图7 对于Bert中,每一层的head之间的差异在二维平面上的投影

就我个人观点,多头注意力机制的作用可能是这样:注意力机制的冗余性很高(即使是独立计算的注意力头,大概率关注的点还是一致的),所以那些仅有很少部分的相对离群的注意力头,能够使得模型进一步优化。但是这些离群的头出现的概率并不高,因此需要通过提高头的基数,来保证这些离群头的出现频率。

Positional Encoding

由于Attention机制并不会告诉模型,词与词之间的位置关系(这点和RNN、CNN不同),需要额外引入位置信息编码。

使用上述位置编码的理由很简单,因为它能够很好的编码两个词之间的相对位置关系。三角函数有着非常方便的和差化积公式。

作者还提到了可以使用Learned embedding,但是实验表明两种方法效果上并没有差别,但使用公式方法更为简单,可以处理比训练时更长的序列。

缺点

Transformer从现在看来也存在着一些缺点和不足:

非图灵完备:证明略过不表。通俗来说,就是Transformer不能处理所有问题。例如,当我们需要输出直接复制输入时,Transformer并不能很好地学习到这个操作。

不适合处理超长序列:当针对文章处理时,序列的长度很容易就超过512。而如果选择不断增大模型的维度,训练时计算资源的需求会平方级增大,难以承受。因此一般选择将文本直接进行截断,而不考虑其自然文本的分割(例如标点符号等),使得文本的长距离依赖建模质量下降。

计算资源分配对于不同的单词都是相同的:在Encoder的过程中,所有的输入token都具有相同的计算量。但是在句子中,有些单词相对会更重要一些,而有些单词并没有太多意义。为这些单词都赋予相同的计算资源显然是一种浪费。

原始版的Transformer虽然并不成熟,层数固定不够灵活、算力需求过大导致的不适合处理超长序列等缺陷限制了其实际应用前景。但是其优秀的特征抽取能力吸引了很多学者的关注。很多人提出了不同的变种Transformer来改进或者规避它的缺陷。其中,Universal Transformer、Transformer-XL、Reformer就是典型的代表。

Universal Transformer

从构架来看,Universal Transformer和Transformer并没有太大的区别,这里就不详细解读了,主要谈谈其最大的创新之处。

图8 Universal Transformer模型架构

在Transformer中,输入经过Attention后,会进入全连接层进行运算,而Universal Transformer模型则会进入一个共享权重的transition function继续循环计算

图9 Universal Transformer重新启用了循环机制

其中,纵向看是文本的序列顺序,横向看是时间步骤。其中每一步的计算公式如下:

这里Transition function可以和之前一样是全连接层,也可以是其他函数层。

之前Transformer的位置编码因为因为层数是固定的,所以不需要将层数编码进去。大师Universal Transforer模型多了一个时间维度,因此每一次循环都需要进行一轮坐标编码,公式为:

为了控制循环的次数,模型引入了Adaptive Computation Time(ACT)机制。

ACT可以调整计算步数,加入ACT机制的Universal transformer被称为Adaptive universal transformer。以下图为例,可以看出,引入ACT机制后,模型对于文本中更重要的token会进行更多次数的循环,而对于相对不重要的单词会减少计算资源的投入。

图10 Universal Transformer模型会对重要的token投入更多的资源

Universal Transformer对transformer的缺点进行了改进,解决了Transformer非图灵完备的缺点,和计算资源投入平均的问题。

Transformer-XL

理论上,attention机制可以让Transformer模型捕获任意距离之间的token之间的依赖关系,但是受限于算力问题(下一个介绍的模型就是解决这个问题的),Transformer通常会将本文分割成长度小于等于(默认是512)的segment,每个segment之间互相独立,互不干涉。

这也就意味着,segment之间的依赖关系,或者说距离超过512的token之间的依赖关系就完全无法建模抽取。同时,这还会带来一个context fragmentation的问题,因为segment的划分并不是根据语义边界,而是根据长度进行划分的,可能会将一个完整的句子拆成两个。那么在对这样被拆分的句子进行预测时,可能就会缺少必要的语义信息。

而Transformer-XL提出了Segment-level Recurrence来解决这个问题。

用一句话概括Segment-level Recurrence,那就是,在对当前segment进行处理的时候,缓存并利用上一个segment中所有layer的隐向量,而且上一个segment的所有隐向量只参与前向计算,不再进行反向传播。

图11 Transformer-XL中,节点能够“看到”之前的segment中的内容

让我们仔细深入研究一下计算过程,假设每个segment的长度为L,整个模型包含N层Transformer-XL,那么每组segment就包含有N组长度为L的隐变量数组。将第t组segment的第n层隐变量向量表示为,其大小为,d是隐变量向量长度,那么第t+1个segment的第n层隐变量向量可以由如下公式算出,其中SG指的是stop-gradient,即不对上一个segment的隐变量进行反向传播。

从图中可以看出,在当前segment中,第n层的每个隐向量的计算,都是利用下一层中包括当前位置在内的,连续前L个长度的隐向量。这也就意味着,每一个位置的隐向量,除了自己的位置,都跟下一层中前(L-1)个位置的token存在依赖关系,而且每往下走一层,依赖关系长度会增加(L-1)。所以最长的依赖关系长度是N(L-1),N是模型中layer的数量。在对长文本进行计算的时候,可以缓存上一个segment的隐向量的结果,不必重复计算,大幅提高计算效率。

由于考虑了之前的segment,那么先前的位置编码就不足以区分不同segment之间的相同位置的token,因此作者提出了使用Relative Positional Encodeing来替代之前的位置编码。具体来说,就是使用相对位置编码来替代绝对位置编码。这种做法在思想上是很容易理解的,因为在处理序列时,一个token在其中的绝对位置并不重要,我们需要的仅仅是在计算attention时两个token的相对位置。由于这部分工作起到的作用主要是补丁,这里不再展开说。

总结来看。Transformer-XL在没有大幅度提高算力需求的情况下,一定程度上解决了长距离依赖问题。

Reformer

之所以Transformer的定为512,而不是更大的值,一个很重要的因素是,在计算attention的过程中,需要计算(Multi-head attention并不会减少计算量),这也是为什么Transformer处理长距离依赖问题并不太好的原因之一。另一方面,多层的Transformer对于内存的占用(从只有几层的 GB 字节到有数千层的模型的 TB 字节)也限制了Transformer的应用。

为了解决这个问题,作者提出了两个机制分别解决这两个问题,它们是locality-sensitve hashing(LSH) attention和Reversible transformer。

原始Transformer计算attention的过程中,需要计算,其复杂度为,其中L为序列长度。那么为什么需要计算这个呢?是为了找到Q和K中相似的部分。那么应用局部敏感哈希的思想(类似于桶排序的思路),我们可以先将相近的向量先归为一类,然后只计算同类的向量之间的点乘。这样,通过LSH,我们就将计算复杂度降为。

下图展示LSH attention的过程,首先用LSH来对每个segment进行分桶,将相似的部分放在同一个桶里面。然后我们将每一个桶并行化计算其中两两之间的点乘。

者还考虑到有一定的概率相似的向量会被分到不同的桶里,因此采用了多轮hashing来降低这个概率。

图12 Reformer模型预先使用了hashing筛选,类似桶排序,避免了对QK的计算

LSH解决了计算速度的问题,但仍有一个内存消耗的问题。一个单层网络通常需要占用GB级别的内存,但是当我们训练一个多层模型时,需要保存每一层的激活值和隐变量,以便在反向传播时使用。这极大地提高了内存的占用量。

这里作者借鉴了RevNet的思想,不保留中间残差连接部分的输入了,取而代之的,是应用一种“可逆层”的思路,就如同下图中所示的那样,(a)为前向传播,(b)为反向传播。

图13 Reformer中的反向传播时,每一层的输入可以根据其输出计算出来

可逆层对每个层有两组激活。一个遵循正常的标准过程,并从一个层逐步更新到下一个层,但是另一个只捕获对第一个层的更改。因此,要反向运行网络,只需减去应用于每个层的激活。

这意味着不需要缓存任何激活来计算后向传播。类似于使用梯度检查点,虽然仍然需要做一些冗余计算,但由于每一层的输入都可以很容易地从它的输出中构造出来,内存使用不再随网络中层数的增加而增加。

总结来看,Reformer在减少了attention计算量的情况下,还减少了模型的内存占用,为未来大型预训练模型的落地奠定了基础。

总结

本文主要介绍了Transformer模型以及针对其缺点作出改进的一些变种模型,总结了它们的设计思路和优缺点。未来,以Transformer及其改进版为基础特征抽取器的预训练模型,一定能够在自然语言处理领域取得更大的突破。

参考文献

[1] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[C]//Advances in neural information processing systems. 2017: 5998-6008.

[2] Dehghani M, Gouws S, Vinyals O, et al. Universal transformers[J]. arXiv preprint arXiv:1807.03819, 2018.

[3] Dai Z, Yang Z, Yang Y, et al. Transformer-xl: Attentive language models beyond a fixed-length context[J]. arXiv preprint arXiv:1901.02860, 2019.

[4] Kitaev N, Kaiser Ł, Levskaya A. Reformer: The Efficient Transformer[J]. arXiv preprint arXiv:2001.04451, 2020.

[5] Vig J. A multiscale visualization of attention in the transformer model[J]. arXiv preprint arXiv:1906.05714, 2019.

[6] Clark K, Khandelwal U, Levy O, et al. What does bert look at? an analysis of bert’s attention[J]. arXiv preprint arXiv:1906.04341, 2019.

本期责任编辑:丁 效

本期编辑:顾宇轩


重磅!忆臻自然语言处理-Pytorch交流群已正式成立!
群内有大量资源,欢迎大家进群学习!
添加小助手领取,还可以进入官方交流群!
注意:请大家添加时修改备注为 [学校/公司 + 姓名 + 方向]
例如 —— 哈工大+张三+对话系统。
号主,微商请自觉绕道。谢谢!

Alt

Alt

推荐阅读:
一文搞懂BERT在NLP上的应用,详解模块代码实现细节!
CS 224n 推荐阅读文献!
肝了1W字!文本生成评价指标的进化与推翻

在这里插入图片描述

查看全文
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

相关文章

  1. 《钻哥带您了解产品原型》(Yanlz+Unity+XR+需求分析+核心思路+产品核心+生产流程+制作核心+销售核心+立钻哥哥+==)

    《钻哥带您了解产品原型》版本作者参与者完成日期备注LJPM_ZuanVer_V01_1.0严立钻2019.02.14##《钻哥带您了解产品原型》发布说明:++++“钻哥带您了解产品原型”:是对“产品原型”的一个了解,当然作为程序员开发者不需要特别了解产品原型,但是作为一位优秀的开发者,熟悉业…...

    2024/4/17 8:44:50
  2. 整流线性单元(Relu)及其变种(Leaky Relu、PRelu、ELU、SELU、CRelu、RRelu)

    Relu (rectified linear unit)整流线性单元------可以有效防止梯度爆炸,将所有负值归零Relu(x)神经元的输出是max(x, 0)。提⾼ReLU 的带权输⼊并不会导致其饱和,所以就不存在前⾯那样的学习速度下降。另外,当带权输⼊是负数的时候,梯度就消失了,所以神经元就完全停止了学习…...

    2024/4/17 8:44:50
  3. memcached实现hibernate二级缓存

    使用memcache实现hibernate二级缓存。本次只是比较简单的实现hibernate二级缓存。还有很多地方需要完善,如果有更高需求的,自己再完善下。1、 需要用到memcache的服务器,下载地址:http://downloads.northscale.com/memcached-win32-1.4.4-14.zip2、 安装memcache服务器。…...

    2024/4/17 8:44:38
  4. 走进林区 (2010.6)

    走进林区今年自己包了2万多袋的木耳,让大姐一家代管,于是前几天倒出时间去了沟里,山里人称呼偏僻的林场叫‘沟里’;虽然生在山多的小城市,但真正进入大山或天然林的次数是有限的,这次算一次吧!这次印象最深的有2点:1、沟里是蚊子的天堂,也是人的梦境之地每天,特别是到…...

    2024/5/3 0:50:35
  5. Unity接入QuickSdk实战

    最近因为项目需要,接入QuickSDK,因为关于QuickSDK的介绍比较少。甚至官方文档没有直观的时序图。所以就照着官方Demo接入一遍QuickSDK,讲一些个人见解。官方的接入文档地址是:https://www.quicksdk.com/doc-20.html首先我在Unity里面搭建了一个简单的UI界面,用于各种情况下…...

    2024/4/17 14:59:58
  6. dsp学习资料之三

    TMS320C6678多核DSP的核间通信方法 http://www.61ic.com.cn/article-61.html 用CCSv5.0调试beaglebone http://www.61ic.com.cn/article-59.html uCosII在AM1808上的移植 http://www.61ic.com.cn/article-58.html DM3730 DSPLink的Linux环境搭建 http://www.61ic.com.cn/articl…...

    2024/4/17 8:44:26
  7. ELU激活函数的提出(FAST AND ACCURATE DEEP NETWORK LEARNING BY EXPONENTIAL LINEAR UNITS (ELUS))

    http://blog.csdn.net/mao_xiao_feng/article/details/53242235?locationNum=9&fps=1论文下载:FAST AND ACCURATE DEEP NETWORK LEARNING BY EXPONENTIAL LINEAR UNITS (ELUS)(2016,Djork-Arne Clevert, Thomas Unterthiner & SeppHochreiter)一、简介ELU的表达式…...

    2024/4/17 8:43:38
  8. hibernate二级缓存策略

    ibernate二级缓存策略 2008-08-01 11:00 相关文章: 关于Hibernate Cache数据库对象的缓存策略Spring+Hibernate 缓存不起作用推荐圈子: JBPM @net 更多相关推荐 很多人对二级缓存都不太了解,或者是有错误的认识,我一直想写一篇文章介绍一下hibernate的二级缓存的,今天终于忍…...

    2024/4/20 11:00:41
  9. 引入YouTube视频自动控制开始和暂停

    YouTube视频在页面内引入经常会遇到如果不点击暂停后台会继续播放视频的情况 从API文档总结出解决办法 代码如下<div class="vdobox" data-id="gPg0FtL5r7g"><p class="myg"><img src="/assets/jqq/close.png" alt=…...

    2024/4/20 13:38:09
  10. 激活函数总结sigmoid,tanh,relu,Leaky ReLU,RRelu,ELU,PRelu,SELU,swish

    本文总结深度学习的损失函数及其优缺点。激活函数是深度学习模型的重要成分,目的是将线性输入转换为非线性。常见的激活函数有sigmoid,tanh,ReLU等1.sigmoidSigmoid 非线性函数将输入映射到 【0,1】之间。它的数学公式为:历史上, sigmoid 函数曾非常常用,然而现在它已经不…...

    2024/4/17 8:45:09
  11. 实用书籍pdf版

    一些实用书籍的PDF版,是我从网上下载或咸鱼上买的,包括概率机器人、深度学习、slam十四讲、机器学习等,都是一些很有用的书。网上查了一下说分享是侵权的,好怕,不分享了,下面这些书要的可以留言,我发给你们。...

    2024/4/20 12:41:44
  12. 哈尔滨理工大学第七届程序设计竞赛决赛 题解

    比赛链接:https://www.nowcoder.com/acm/contest/30#question A:在acimo星球, tabris 是一名勇敢的屠龙勇士,在上绿岛屠龙前决定挑选N种装备武装自己,现在每种装备有两个,**但每种装备tabris必须选择拿一个**,**不能多也不能少**。每件装备有自己的属性值,能给tabris属性…...

    2024/4/17 8:43:26
  13. 我国高等教育财政投入效率分析与对策

    摘要:教育财政投入的效率是教育财政的核心问题,高等教育资源稀缺与高等教育财政投入效率不高,是我国高等教育的发展现状,本文对高等教育财政投入效率的情况、以及造成这种现状所产生的原因进行了分析,并以此提出相关的策略性建议,以提高财政投入效率,并使财政资源收益最…...

    2024/4/18 11:05:32
  14. 激活函数总结(Sigmoid、Tanh、Relu、LeakyRelu、pRelu、Elu、softplus)

    1.介绍在深度学习网络中,我们经常看到卷积层之后,会接一个激活函数,而现在比较常见的激活函数有Sigmoid和Relu,那么卷积层之后,为什么要接一个激活函数呢?卷积层操作可以用y = w*x + b(其中w为权重,b为偏置)表示,如果我们在后面没有接激活函数,那么y_out = w2 * (w1…...

    2024/4/11 22:35:55
  15. 2009-11-29

    2009-11-29 晴想不到今天会出太阳,因为和亲爱的人儿见面,好的天气总可以让人心情爽爽。亲爱的人儿姐姐和姐夫人都很好,是那种可以交的朋友,姐姐呢话多一些,但是蛮聪明,喜欢聪明的女生,姐夫一看就是那种比较老实的,人应该很厚道,没有脾气,也很好。今天早上7点醒来,看…...

    2024/4/20 6:53:53
  16. Hibernate二级缓存实现的方式(在类中,在方法上实现的思路)

    数据库缓存 - 幕布数据库缓存两种处理方式一种处理model,只查询缓存,不更新缓存参考列子 用户表的敏感词列表思路项目pom文件导入hibernate-encache缓存文件创建encache.xml文件spring-hibernate.xml文件添加缓存设置的策略model中的Bean添加缓存策略load,iterate(),list()方…...

    2024/4/17 8:44:26
  17. LAUNCHXL-28379D入门学习-第一篇

    1. 首先安装controlSUITE或者C2000ware软件,TI官网下载,安装后包括C2000的函数库和例程之类的,还可以和CCS搭配使用。controlSUITE安装完之后大约4个G,所以我安装C2000ware。 2. 打开CCS,要使用CCS6以上的版本才行,打开搜索资源,可以扫到安装的这2个软件库。3. 如果找不…...

    2024/4/17 8:45:33
  18. Enterprise:如何将自定义数据导入 Elastic Workplace Search - 一个简单的CSV示例

    Elastic Workplace Search 可以立即从各种内容源(例如 Google Drive,GitHub 和 Salesforce)中提取数据。 但是您可能需要额外的灵活性来满足您自己独特的组织数据需求。Workplace Search 自定义源 API 提供了一种轻量级的,由 API 驱动的方式,用于将内容提取到 Workplace S…...

    2024/4/17 8:44:50
  19. jsonp原理详解

    转自:https://blog.csdn.net/hansexploration/article/details/80314948?tdsourcetag=s_pcqq_aiomsg 什么是JSONP? 先说说JSONP是怎么产生的: 其实网上关于JSONP的讲解有很多,但却千篇一律,而且云里雾里,对于很多刚接触的人来讲理解起来有些困难,着用自己的方式来阐释一…...

    2024/4/17 8:44:38
  20. 手把手教你在centos7 中安装mysql

    CentOS 7 版本将MySQL数据库软件从默认的程序列表中移除,用mariadb代替了。所以要安装mysql有两种方法,一种是直接安装mariadb,另一种是从官网下载mysql手动安装 这里只介绍第二种方法。 一、系统环境 # cat /etc/redhat-release CentOS Linux release 7.3.1611 (Core)二、官…...

    2024/4/2 5:26:16

最新文章

  1. Rust 动态数组Vector

    导航 一、动态数组是什么&#xff0c;怎么用1、动态数组Vector是什么2、动态数组怎么用&#xff08;1&#xff09;创建动态数组&#xff08;2&#xff09;尾部追加元素&#xff08;3&#xff09;尾部删除元素&#xff08;4&#xff09;删除指定位置元素&#xff08;5&#xff0…...

    2024/5/3 1:24:14
  2. 梯度消失和梯度爆炸的一些处理方法

    在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言&#xff0c;在此感激不尽。 权重和梯度的更新公式如下&#xff1a; w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...

    2024/3/20 10:50:27
  3. Android Studio学习15——多页面情况下再看Activity生命周期

    按返回键退出APP时&#xff1a; 走正常页面的退出流程&#xff1a;onPause–>onStop–>onDestroy(会Destroy,因为它从任务栈中退出了) 再点击图标回来时&#xff1a; 走正常页面的创建流程&#xff1a;onCreate–>onStart–>onResume 按Home键退出App时&#xff1a…...

    2024/5/1 17:27:41
  4. 汽车疲劳测试试验平台技术要求(北重厂家)

    汽车疲劳测试试验平台技术要求通常包括以下几个方面&#xff1a; 车辆加载能力&#xff1a;测试平台需要具备足够的承载能力&#xff0c;能够同时测试多种车型和不同重量的车辆。 动力系统&#xff1a;测试平台需要具备稳定可靠的动力系统&#xff0c;能够提供足够的力和速度来…...

    2024/5/1 13:14:16
  5. HTML——4.表格、列表、区块

    一、表格 HTML 表格是用于展示结构化数据的重要元素&#xff0c;它允许将数据以行和列的形式组织和显示。 基本结构和常见元素&#xff1a; 1. <table> 元素 <table> 元素是 HTML 表格的根元素&#xff0c;它用于定义整个表格的开始和结束。 2. <thead>、…...

    2024/5/2 17:43:56
  6. 【外汇早评】美通胀数据走低,美元调整

    原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...

    2024/5/1 17:30:59
  7. 【原油贵金属周评】原油多头拥挤,价格调整

    原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...

    2024/5/2 16:16:39
  8. 【外汇周评】靓丽非农不及疲软通胀影响

    原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...

    2024/4/29 2:29:43
  9. 【原油贵金属早评】库存继续增加,油价收跌

    原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...

    2024/5/2 9:28:15
  10. 【外汇早评】日本央行会议纪要不改日元强势

    原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...

    2024/4/27 17:58:04
  11. 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响

    原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...

    2024/4/27 14:22:49
  12. 【外汇早评】美欲与伊朗重谈协议

    原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...

    2024/4/28 1:28:33
  13. 【原油贵金属早评】波动率飙升,市场情绪动荡

    原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...

    2024/4/30 9:43:09
  14. 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试

    原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...

    2024/4/27 17:59:30
  15. 【原油贵金属早评】市场情绪继续恶化,黄金上破

    原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...

    2024/5/2 15:04:34
  16. 【外汇早评】美伊僵持,风险情绪继续升温

    原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...

    2024/4/28 1:34:08
  17. 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势

    原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...

    2024/4/26 19:03:37
  18. 氧生福地 玩美北湖(上)——为时光守候两千年

    原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...

    2024/4/29 20:46:55
  19. 氧生福地 玩美北湖(中)——永春梯田里的美与鲜

    原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...

    2024/4/30 22:21:04
  20. 氧生福地 玩美北湖(下)——奔跑吧骚年!

    原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...

    2024/5/1 4:32:01
  21. 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!

    原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...

    2024/4/27 23:24:42
  22. 「发现」铁皮石斛仙草之神奇功效用于医用面膜

    原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...

    2024/4/28 5:48:52
  23. 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者

    原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...

    2024/4/30 9:42:22
  24. 广州械字号面膜生产厂家OEM/ODM4项须知!

    原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...

    2024/5/2 9:07:46
  25. 械字号医用眼膜缓解用眼过度到底有无作用?

    原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...

    2024/4/30 9:42:49
  26. 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...

    解析如下&#xff1a;1、长按电脑电源键直至关机&#xff0c;然后再按一次电源健重启电脑&#xff0c;按F8健进入安全模式2、安全模式下进入Windows系统桌面后&#xff0c;按住“winR”打开运行窗口&#xff0c;输入“services.msc”打开服务设置3、在服务界面&#xff0c;选中…...

    2022/11/19 21:17:18
  27. 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。

    %读入6幅图像&#xff08;每一幅图像的大小是564*564&#xff09; f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...

    2022/11/19 21:17:16
  28. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...

    win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面&#xff0c;在等待界面中我们需要等待操作结束才能关机&#xff0c;虽然这比较麻烦&#xff0c;但是对系统进行配置和升级…...

    2022/11/19 21:17:15
  29. 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...

    有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows&#xff0c;请勿关闭计算机”的提示&#xff0c;要过很久才能进入系统&#xff0c;有的用户甚至几个小时也无法进入&#xff0c;下面就教大家这个问题的解决方法。第一种方法&#xff1a;我们首先在左下角的“开始…...

    2022/11/19 21:17:14
  30. win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...

    置信有很多用户都跟小编一样遇到过这样的问题&#xff0c;电脑时发现开机屏幕显现“正在配置Windows Update&#xff0c;请勿关机”(如下图所示)&#xff0c;而且还需求等大约5分钟才干进入系统。这是怎样回事呢&#xff1f;一切都是正常操作的&#xff0c;为什么开时机呈现“正…...

    2022/11/19 21:17:13
  31. 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...

    Win7系统开机启动时总是出现“配置Windows请勿关机”的提示&#xff0c;没过几秒后电脑自动重启&#xff0c;每次开机都这样无法进入系统&#xff0c;此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一&#xff1a;开机按下F8&#xff0c;在出现的Windows高级启动选…...

    2022/11/19 21:17:12
  32. 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...

    有不少windows10系统用户反映说碰到这样一个情况&#xff0c;就是电脑提示正在准备windows请勿关闭计算机&#xff0c;碰到这样的问题该怎么解决呢&#xff0c;现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法&#xff1a;1、2、依次…...

    2022/11/19 21:17:11
  33. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...

    今天和大家分享一下win7系统重装了Win7旗舰版系统后&#xff0c;每次关机的时候桌面上都会显示一个“配置Windows Update的界面&#xff0c;提示请勿关闭计算机”&#xff0c;每次停留好几分钟才能正常关机&#xff0c;导致什么情况引起的呢&#xff1f;出现配置Windows Update…...

    2022/11/19 21:17:10
  34. 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...

    只能是等着&#xff0c;别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚&#xff0c;只能是考虑备份数据后重装系统了。解决来方案一&#xff1a;管理员运行cmd&#xff1a;net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...

    2022/11/19 21:17:09
  35. 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?

    原标题&#xff1a;电脑提示“配置Windows Update请勿关闭计算机”怎么办&#xff1f;win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢&#xff1f;一般的方…...

    2022/11/19 21:17:08
  36. 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...

    关机提示 windows7 正在配置windows 请勿关闭计算机 &#xff0c;然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;关机提示 windows7 正在配…...

    2022/11/19 21:17:05
  37. 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...

    钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...

    2022/11/19 21:17:05
  38. 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...

    前几天班里有位学生电脑(windows 7系统)出问题了&#xff0c;具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面&#xff0c;长时间没反应&#xff0c;无法进入系统。这个问题原来帮其他同学也解决过&#xff0c;网上搜了不少资料&#x…...

    2022/11/19 21:17:04
  39. 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...

    本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法&#xff0c;并在最后教给你1种保护系统安全的好方法&#xff0c;一起来看看&#xff01;电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中&#xff0c;添加了1个新功能在“磁…...

    2022/11/19 21:17:03
  40. 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...

    许多用户在长期不使用电脑的时候&#xff0c;开启电脑发现电脑显示&#xff1a;配置windows更新失败&#xff0c;正在还原更改&#xff0c;请勿关闭计算机。。.这要怎么办呢&#xff1f;下面小编就带着大家一起看看吧&#xff01;如果能够正常进入系统&#xff0c;建议您暂时移…...

    2022/11/19 21:17:02
  41. 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...

    配置windows update失败 还原更改 请勿关闭计算机&#xff0c;电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;配置windows update失败 还原更改 请勿关闭计算机&#x…...

    2022/11/19 21:17:01
  42. 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...

    不知道大家有没有遇到过这样的一个问题&#xff0c;就是我们的win7系统在关机的时候&#xff0c;总是喜欢显示“准备配置windows&#xff0c;请勿关机”这样的一个页面&#xff0c;没有什么大碍&#xff0c;但是如果一直等着的话就要两个小时甚至更久都关不了机&#xff0c;非常…...

    2022/11/19 21:17:00
  43. 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...

    当电脑出现正在准备配置windows请勿关闭计算机时&#xff0c;一般是您正对windows进行升级&#xff0c;但是这个要是长时间没有反应&#xff0c;我们不能再傻等下去了。可能是电脑出了别的问题了&#xff0c;来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...

    2022/11/19 21:16:59
  44. 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...

    我们使用电脑的过程中有时会遇到这种情况&#xff0c;当我们打开电脑之后&#xff0c;发现一直停留在一个界面&#xff1a;“配置Windows Update失败&#xff0c;还原更改请勿关闭计算机”&#xff0c;等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢&#xff0…...

    2022/11/19 21:16:58
  45. 如何在iPhone上关闭“请勿打扰”

    Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...

    2022/11/19 21:16:57