当然,文档中的词很少是完全独立的,它们的出现会影响文档中的其他词或者受到文档中其他词的影响:

The stolen car sped into the arena.

(那辆偷来的汽车飞快地开进了竞技场。)

The clown car sped into the arena.

(那辆小丑车快速驶进了舞台。)

当读者读到这两个句子的末尾时可能会产生两种完全不同的情感。这两个句子的形容词、名词、动词和介词短语结构是完全相同的,但位于句首的形容词极大地影响了读者后续的推断。

大家能想出一种对这种关系进行建模的方法吗?一种形容词不直接修饰或出现在句首时也能理解“arena”甚至“sped”的隐含意义可能会稍有不同的方法?

假如大家能想到一种方式“记忆”之前时刻发生的事情(尤其是当我们在t+1时刻时,t时刻发生的),我们就能捕获当序列中某些词条出现时,其他词条相对应会出现的模式。循环神经网络(recurrent neural net,RNN)使神经网络能够记住句子中出现过的词。

我们从图8-3可以看到,隐藏层中的单个循环神经元增加了一个循环回路使t时刻隐藏层的输出重新输入隐藏层中。t时刻的输出会作为t+1时刻的输入。这个新的输入会由t+1时刻的网络处理来产生t+1时刻隐藏层的输出。而t+1时刻的输出接下来又会被重新作为t+2时刻的输入,以此类推[2]。

 

图8-3 循环神经网络

尽管根据时间变化影响状态的思想一开始可能会让人感觉有些困惑,但是其基本概念简单明了。对于传入一般前馈网络的每个输入,我们在t时刻得到的网络输出会作为网络的一个额外输入,与下一份在t+1时刻的数据一起输入网络。这样,我们就可以告诉前馈网络之前发生了什么和“现在”正在发生什么。

重要说明  

在本章及下一章,我们谈论最多的事情就是时刻或时间步(time step)。这和单独的数据样本不是一回事。我们谈论的是一份数据样本分解成更小的可以表示时间变化的块。单个数据样本仍是文本的某一部分,如一小段影评或者一条Twitter。和之前一样,我们还是会对句子进行分词,但是不同于以往一次性地将所有词条输入网络,我们会在一个时刻输入一个词条。这和有多个新文本的样本完全不同。这些词条仍然是同一个标签的一个数据样本的一部分。

我们可以认为t代表词条序列的下标。所以= 0是文档中的第一个词条,而+ 1则代表文档的下一个词条。那些在文档中依次出现的词条将会作为每个时刻(时间步)或者词条步的输入。并且,词条不一定是某个词,单个字符也可以作为词条。在某一时刻输入一个词条是将数据样本传入网络的一个子步(substep)。

自始至终,我们将当前时刻标为t,下一时刻标为t + 1。

如图8-3所示,我们可以看到一个循环网络:整个循环是由一个或者多个神经元组成的前馈网络。网络隐藏层的输出和普通的输出一样,但是它本身会和下一个时刻的正常输入数据一起作为输入回传进网络。这个反馈表示为从隐藏层的输出指向它的输入的箭头。

理解这个过程的一个更简单的方法(通常如此显示)是展开这个网络。图8-4从新的角度,展示了网络随时间变量(t)展开两次的图形,显示了+ 1时刻和+ 2时刻的网络层。

每个时刻由完全相同的神经网络展开后的一列神经元表示。就像在时刻中查看每个样本的神经网络的剧本或视频帧一样。右侧网络是左侧网络的未来版本。在一个时刻(t)的隐藏层的输出被回传到隐藏层以及用作右侧下一个时刻(t + 1)的输入数据,如此循环往复。此图显示了这一展开的两次迭代,因此对于t=0、t=1和t=2,有3列神经元。

 

图8-4 展开循环神经网络

这个可视化视图中的所有垂直路径都是克隆的,或者说是完全相同神经元的视图。它们在时间轴上是单个网络表示的。当讨论信息在反向传播算法中是如何在网络中前向和反向流动时,这种可视化非常有用。但是,当我们观察这3个展开的网络时,请记住它们都是同一个网络的不同快照(snapshot),只有一组权重。

我们放大一个循环神经网络展开前的原始表示,揭示输入和权重之间关系。这个循环网络的各个层如图8-5和图8-6所示。

 

图8-5 = 0时刻的循环神经网络

 

图8-6 = 1时刻的循环神经网络

处于隐藏状态的每个神经元都有一组权重,它们应用于每个输入向量的每个元素,这和一般的前馈网络一样。但是,现在我们有一组额外的可训练权重,这些权重应用于前一个时刻隐藏层神经元的输出。当我们逐个词条地输入序列时,网络可以学习分配给“过去”的事件多少权重或者重要度。

提示  

序列中的第一个输入没有“过去”,因此= 0时刻的隐藏状态从其t−1时刻接收输入为0。“填充”初始状态值的另一种方法是,首先将相关但分开的样本一个接一个地传递到网络中,然后每个样本的最终输出用于下一个样本= 0时刻的输入。在8.5.1节中,我们将学习如何使用另一种“填充”方法保留数据集中的更多信息。

我们回到数据:假设我们有一组文档,每篇文档都是一个带标签的样本。对于每个样本,不同于上一章中一次性地将词向量集合传递进卷积神经网络(如图8-7所示),这次是从样本中一次取一个词条并将其单独传递到我们的RNN中(如图8-8所示)。

在循环神经网络中,我们传入第一个词条的词向量并获得网络的输出,然后传入第二个词条的词向量,同时也传入第一个词条的输出!然后传入第三个词条的词向量以及第二个词条的输出,以此类推。网络中有前后概念和因果关系,以及一些模糊的时间概念(如图8-8所示)。

现在我们的网络正在记住一些东西!好吧,至少有一点儿像。但还有一些事情需要我们弄明白,首先,反向传播算法是如何在这样的结构中工作的?

 

图8-7 传入卷积网络的数据

 

图8-8 传入循环网络的数据

8.1.1 随时间反向传播算法

到目前为止,我们讨论的所有网络都有一个标签(目标变量),而循环神经网络也不例外。但是,并不是说每个词条都有一个标签,而是每个样本中的所有词条只有一个标签。也就是说,对于样本文档,只有一个标签。

... and that is enough.

——Isadora Duncan

提示 

我们谈谈网络在各个时刻输入的词条,循环神经网络可以在任何类型的时间序列数据上工作。我们的词条可以是离散的或连续的:如来自气象站的读数、音符、句子中的字符等,由大家决定。

这里,我们开始会在最后一个时刻查看网络的输出,并将该输出与标签进行比较。这就是(目前)对于误差(error)的定义,而误差是我们的网络最终想要尽量减小的目标,但是这里要介绍的处理输出的方式与前几章的有所不同。对于给定的数据样本,我们可以将其分成较小的片段,这些片段按顺序进入网络。但是,我们并不直接处理这些由“子样本”产生的所有输出,而是将其反馈给网络。

我们只关心最终的输出,至少现在如此。将序列中的每个词条输入网络中,并根据序列中最后一个时刻(词条)的输出计算损失,如图8-9所示。

 

图8-9 只有最后的输出影响结果

对于给定样本的误差,我们需要确定哪些权重需要更新以及需更新多少。在第5章中,我们学习了在标准的网络中如何反向传播误差,并且我们知道对每个权重校正多少取决于该权重对误差的贡献程度。我们可以输入样本序列中的各个词条,并根据之前时刻的网络输出计算误差,但是这也正是不能在时间序列上应用反向传播算法的原因。

可以这样来考虑:将整个过程视为基于时间的。我们在每个时刻取一个词条,从t = 0处的第一个词条开始,将它输入当前的隐藏层神经元——图8-9中的下一列。当我们这样做时,网络会展开并揭示下一列,为序列中的下一个词条做好准备。隐藏层的神经元不断展开,一次一个,就像是音乐盒或钢琴的演奏。当我们到达终点,在输入样本的所有片段之后,网络将停止展开并且我们将获得目标变量的最终输出标签。我们可以使用该输出来计算误差并调整权重。这样,我们就完成了这个展开网络计算图的所有环节。

此时,我们可以将整个输入视为静态的。通过计算图我们可以看到各个神经元分别送入了哪个输入。一旦知道各个神经元是如何工作的,我们就可以循着之前的方法,像在标准前馈网络中做的那样运用反向传播

我们将使用链式法则反向传播到前一层。但是,不同于传播到上一层,这里是传播到过去的层,就好像每个展开的网络版本都不同(如图8-10所示)。数学公式是一样的。

 

图8-10 随时间反向传播

我们将反向传播在最后一个时刻获得的误差。对于每个“较早”的时刻,都要执行更新时刻的梯度。对于该样本,在计算了所有词条的梯度之后,我们将聚合这些校正值并将它们应用于整套权重的更新,直至回到时刻t = 0。

简要回顾

  • 将每个数据样本切分为词条。
  • 将每个词条输入前馈网络中。
  • 将每个时刻的输出以及下一个时刻的输入作为同一层的输入。
  • 获取最后一个时刻的输出并将其与标签进行比较。
  • 在整个计算图中反向传播误差,一直回到第一个时刻t = 0的输入。

8.1.2 不同时刻的权重更新

我们已经将看似奇怪的循环神经网络转换为类似于标准前馈网络的东西,这样可以使权重更新变得相当简单。但是这里有一个问题。更新过程中棘手的部分是我们正在更新的权重不是神经网络的不同分支,每个分支代表着位于不同时刻的相同网络。各个时刻的权重是相同的(如图8-10所示)。

一个简单的解决方案是计算各个时刻的权重校正值但不立即更新。在前馈网络中,一旦为输入样本计算了所有梯度,所有权重的校正值就会被计算。这对循环神经网络同样适用,但对该输入样本我们必须一直保留这些校正值,直至回到时刻= 0。

梯度计算需要基于权重对误差的贡献量。这里是令人费解的部分:在时刻t一个权重在初次计算时对误差产生了贡献,而该权重在时刻+ t会接收到不同的输入,因此之后对误差的贡献量也会有所不同。

我们可以计算出权重在每个时刻的不同校正值(就像它们在气泡中一样),然后聚合所有校正值并在学习阶段的最后一步将其应用于隐藏层的各个权重。

提示  

在所有这些示例中,我们前向传播传入单个训练样本,然后反向传播误差。与所有神经网络一样,这种前向传递可以依据每个训练样本进行,也可以分批进行。事实证明,批处理除加速之外还有其他好处。但现在,请仅从单个数据样本、单个句子或文档来考虑这些过程。

这似乎很神奇。对于单个数据样本,随时间反向传播算法中的单个权重在一个时刻t可能会在一个方向上进行调整(取决于其在时刻t对输入的反应),然后在时刻– 1在另一个方向上进行调整(取决于其在时刻t − 1对输入的反应)!但是请记住,不管中间步骤有多复杂,神经网络一般都是通过最小化损失函数来工作的,所以总体来说,它会对这个复杂的函数进行优化。当对每个数据样本应用一次权重更新时,网络将确定(假设它是收敛的)对该输入样本来说最适合处理此任务的神经元的权重。

至关重要的前期输出

有时,我们也会关心在各个中间时刻生成的整个序列。在第9章中,我们将看到一些示例,它们展示了给定时刻t的输出与最终时刻的输出同样重要。图8-11展示了在任意给定时刻捕获误差的路径,并在反向传播期间使用该误差反向调整网络的所有权重。

 

图8-11 所有的输出都很重要

这个过程类似于在n个时刻执行普通的随时间反向传播。在本例中,我们现在正在同时从多个源反向传播误差。但是正如第一个例子一样,权重的校正值是累积的,我们从最后一个时刻一直反向传播到初始时刻,并且对每个权重计算要更新的总数,然后对于在倒数第二个时刻计算出的误差进行同样的处理,并将反向进行处理直到时刻t = 0将所有的校正值加起来。重复这个过程,直到回到时刻= 0,然后继续反向传播,此时要聚合的值只有一个。接着,我们可以将更新的总和一次性地应用于相关隐藏层的所有权重。

在图8-12中,我们可以看到误差从每个输出反向传播到t = 0,并在最后对权重应用更新之前进行聚合。这是本节中最重要的内容。与标准的前馈网络一样,对于该输入(或一组输入),只有在计算了整个反向传播步骤中各权重需要更新的校正值之后,我们才会更新权重值。在循环神经网络的情况下,这种反向传播包含了所有时刻到= 0的更新。

 

图8-12 多输出和随时间反向传播

较早地更新权重会较早地“污染”反向传播中的梯度计算。请记住梯度是根据特定的权重计算的,所以如果要提前更新它,例如在时刻t,那么当计算时刻t − 1的梯度时,权重的值(记住它在网络中的权重位置是相同的)会发生变化。如果根据时刻t − 1的输入计算梯度,计算将是错误的。我们将因为一个权重没有对误差做出的贡献而惩罚(或奖励)它!

8.1.3 简要回顾

现在我们走到哪一步了?我们已经将每个数据样本分割成词条,然后一个接一个地把它们输入一个前馈网络。对于每个词条,不仅要输入词条本身,还要输入前一个时刻的输出。在时刻0,我们输入初始词条和0,后者是一个0向量,这是因为之前没有输出。我们将比较最终词条的网络输出与预期标签之间的差异以获得误差,然后随时间反向传播该误差至网络的每个权重,最后我们聚合计算出的校正值,并将它们同时应用于网络。

我们现在有一个前馈网络,它有一些类似于时间的概念和一个能够保存发生在时间轴上的记忆的基本工具。

8.1.4 难点

尽管一个循环神经网络需要学习的权重(参数)可能相对较少,但是从图8-12中可以看出,训练一个循环神经网络的代价高昂,尤其是对于较长的序列(如10个词条)。我们拥有的词条越多,每个时刻误差必须反向传播的时间越长。而对于每一时刻,都有更多的导数需要计算。虽然循环神经网络的效果并不比其他网络的效果差,但是请准备好用计算机的排气扇给房子供暖吧。

撇开新的供热能源不谈,我们已经给了神经网络一个基本的记忆能力,但是当它们(指网络时刻)变深,更多的麻烦也出现了(一个也可以在常规的前馈网络中看到的问题)。梯度消失问题(vanishing gradient problem)有一个推论:梯度爆炸问题(exploding gradient problem),它们的思想是,随着网络变得更深(更多层)时,误差信号会随着梯度的每一次计算消散或增长。

循环神经网络也面临着同样的问题,因为在数学上,时刻的每一次后退都相当于将一个误差反向传播到前馈网络的前一层。但是这里更糟!尽管由于这个原因,大多数前馈网络往往只有几层深,但是当我们要处理的是5个、10个,甚至数百个词条的序列时,要深入到100层网络的底层还是很困难的。不过,一个让我们可以继续工作、减轻压力的因素在于:尽管梯度可能会在计算最后一次权重集的过程中消失或爆炸,但是实际上我们只更新了一次权重集,并且每个时刻的权重集都是相同的。仍然有些信息会传递出去,虽然它可能不是我们认为所能创建的理想记忆状态,但是不必害怕,研究人员正在研究这个问题,对于这个挑战在下一章我们会有一些答案。

听了如此多令人郁闷的坏消息,现在我们来看一些魔法吧。

8.1.5 利用Keras实现循环神经网络

我们将从与上一章中所使用的相同的数据集和预处理开始。首先,加载数据集,获取标签并随机打乱样本,然后对文档分词并使用谷歌的Word2vec模型使其向量化,接下来,获取标签,最后我们按80/20的比例将原始数据分成训练集和测试集。

首先,我们需要导入数据处理和循环神经网络训练所需的所有模块,如代码清单8-1所示。

代码清单8-1 导入所有模块

>>> import glob
>>> import os
>>> from random import shuffle
>>> from nltk.tokenize import TreebankWordTokenizer
>>> from nlpia.loaders import get_data
>>> word_vectors = get_data('wv')

然后,我们可以构建数据预处理模块,它能对数据进行训练前的处理,如代码清单8-2所示。

代码清单8-2 数据预处理模块

>>> def pre_process_data(filepath):
...     """
...     Load pos and neg examples from separate dirs then shuffle them
...     together.
...     """
...     positive_path = os.path.join(filepath, 'pos')
...     negative_path = os.path.join(filepath, 'neg')
...     pos_label = 1
...     neg_label = 0
...     dataset = []
...     for filename in glob.glob(os.path.join(positive_path, '*.txt')):
...         with open(filename, 'r') as f:
...             dataset.append((pos_label, f.read()))
...     for filename in glob.glob(os.path.join(negative_path, '*.txt')):
...         with open(filename, 'r') as f:
...             dataset.append((neg_label, f.read()))
...     shuffle(dataset)
...     return dataset

与之前一样,我们可以将数据分词和向量化的方法写在一个函数中,如代码清单8-3所示。

代码清单8-3 数据分词和向量化

>>> def tokenize_and_vectorize(dataset):
...     tokenizer = TreebankWordTokenizer()
...     vectorized_data = []
...     for sample in dataset:
...         tokens = tokenizer.tokenize(sample[1])
...         sample_vecs = []
...         for token in tokens:
...             try:
...                 sample_vecs.append(word_vectors[token])
...             except KeyError:
...                 pass  ⇽--- 在谷歌w2v词汇表中没有匹配的词条
...         vectorized_data.append(sample_vecs)
...     return vectorized_data

并且我们需要将目标变量提取(解压)到单独的(但对应的)样本中,如代码清单8-4所示。

代码清单8-4 目标变量解压缩

>>> def collect_expected(dataset):
...      """ Peel off the target values from the dataset """
...      expected = []
...      for sample in dataset:
...          expected.append(sample[0])
...      return expected

既然我们已经写好了所有的预处理函数,就需要在数据上运行它们,如代码清单8-5所示。

代码清单8-5 加载和准备数据

>>> dataset = pre_process_data('./aclimdb/train')
>>> vectorized_data = tokenize_and_vectorize(dataset)
>>> expected = collect_expected(dataset)
>>> split_point = int(len(vectorized_data) * .8)   ⇽--- 按80/20的比例划分为训练集和测试集(不用混洗)
>>> x_train = vectorized_data[:split_point]
>>> y_train = expected[:split_point]
>>> x_test = vectorized_data[split_point:]
>>> y_test = expected[split_point:]

我们将为这个模型使用相同的超参数:每个样本使用400个词条,批大小为32。词向量是300维,我们将让它运行2个周期。具体做法参见代码清单8-6。

代码清单8-6 初始化网络参数

>>> maxlen = 400
>>> batch_size = 32
>>> embedding_dims = 300
>>> epochs = 2

接下来,我们需要再次填充和截断样本。通常我们不需要对循环神经网络使用填充或截断,因为它们可以处理任意长度的输入序列。但是,在接下来的几个步骤中,我们将看到所使用的模型要求输入指定长度的序列。具体做法参见代码清单8-7。

代码清单8-7 加载测试数据和训练数据

>>> import numpy as np>>> x_train = pad_trunc(x_train, maxlen)
>>> x_test = pad_trunc(x_test, maxlen)>>> x_train = np.reshape(x_train, (len(x_train), maxlen, embedding_dims)) 
>>> y_train = np.array(y_train)
>>> x_test = np.reshape(x_test, (len(x_test), maxlen, embedding_dims)) 
>>> y_test = np.array(y_test)

现在我们已经获得了数据,是时候构建模型了。我们将再次从Keras的一个标准的分层模型Sequential()(分层的)模型开始,如代码清单8-8所示。

代码清单8-8 初始化一个空的Keras网络

>>> from keras.models import Sequential
>>> from keras.layers import Dense, Dropout, Flatten, SimpleRNN
>>> num_neurons = 50
>>> model = Sequential()

然后,和之前一样,神奇的Keras处理了组装神经网络的各个复杂环节:我们只需要将想要的循环层添加到我们的网络中,如代码清单8-9所示。

代码清单8-9 添加一个循环层

>>> model.add(SimpleRNN(
...    num_neurons, return_sequences=True,
...    input_shape=(maxlen, embedding_dims)))

现在,基础模块已经搭建完毕,可以接收各个输入并将其传递到一个简单的循环神经网络中(不简单的版本将在下一章介绍),对于每个词条,将它们的输出集合到一个向量中。因为我们的序列有400个词条长,并且使用了50个隐藏层神经元,所以这一层的输出将是一个400个元素的向量,其中每个元素都是一个50个元素的向量,每个神经元对应着一个输出。

注意这里的关键字参数return_sequences。它会告诉网络每个时刻都要返回网络输出,因此有400个向量,每个向量为50维。如果return_sequences被设置为False(Keras的默认行为),那么只会返回最后一个时刻的50维向量。

在本例中,50个神经元的选择是任意的,主要是为了减少计算时间。我们用这个数字做实验,来看看它是如何影响计算时间和模型精确率的。

提示  

一个好的经验法则是尽量使模型不要比训练的数据更复杂。说起来容易做起来难,但是这个想法为我们在数据集上做实验时的调参提供了一个基本法则。较复杂的模型对训练数据过拟合,泛化效果不佳;过于简单的模型对训练数据欠拟合,而且对于新数据也没有太多有意义的内容。我们会看到这个讨论被称为偏差与方差的权衡。对数据过拟合的模型具有高方差和低偏差,而欠拟合的模型恰恰相反:低方差和高偏差;它会用一致的方式给出答案,结果把一切都搞错了。

注意,我们再次截断并填充了数据,这样做是为了与上一章的CNN例子作比较。但是当使用循环神经网络时,通常不需要使用截断和填充。我们可以提供不同长度的训练数据,并展开网络,直到输入结束,Keras对此会自动处理。问题是,循环层的输出长度会随着输入时刻的变化而变化。4个词条的输入将输出4个元素长的序列。100个词条的序列将产生100个元素长的序列。如果我们需要把它传递到另一个层,即一个期望输入的维度统一的层,那么上述不等长的结果就会出现问题。但在某些情况下,这种不等长的序列输入也是可以接受的,甚至本来就期望如此。但是还是先回到我们这里的分类器,参见代码清单8-10。

代码清单8-10 添加一个dropout层

>>> model.add(Dropout(.2))>>> model.add(Flatten())
>>> model.add(Dense(1, activation='sigmoid'))

我们要求上述简单的RNN返回完整的序列,但是为了防止过拟合,我们添加了一个Dropout层,在每个输入样本上随机选择输入,使这些输入有20%的概率为零,最后再添加一个分类器。在这种情况下,我们只有一个类:“Yes - Positive Sentiment - 1”或“No - Negative Sentiment - 0”,所以我们选择只有单个神经元(Dense(1))的层并使用sigmoid激活函数。但是该稠密层需要输入一个由n个元素组成的扁平的向量(每个元素都是一个浮点数)。SimpleRNN输出的是一个400个元素长的张量,张量中的每个元素都是50个元素长。但是前馈网络并不关心元素的顺序而只关心输入是否符合网络的需要,所以我们使用Keras提供的一个非常方便的网络层Flatten()将输入从400 × 50的张量扁平化为一个长度为20 000个元素的向量。这就是我们要传递到最后一层用来做分类的向量。实际上,Flatten层是一个映射。这意味着误差将从最后一层反向传播回RNN层的输出,而如前所述,这些反向传播的误差之后将在输出的合适点随时间反向传播。

将循环神经网络层生成的“思想向量”传递到前馈网络中,将不再保留我们努力试图想要包含的输入顺序的关系。但重要的是我们注意到,与词条的序列相关的“学习”发生在RNN层本身;通过随时间反向传播过程中误差的聚合将这种关系编码进了网络中,并将其表示为“思想向量”本身。我们基于思想向量作出的决策,通过分类器,就特定的分类问题向思想向量的“质量”提供反馈。我们可以“评估”我们的思想向量,并以其他方式使用RNN层,更多内容将在下一章讨论。(大家能感觉到我们提到下一章时的兴奋吗?)坚持下去,这些知识对于理解下一部分是至关重要的。

本文摘自《自然语言处理实战》

 

语言是人类建立共识的基础。人们之间交流的不仅有事实,还有情感。通过语言,人们获得了经验领域之外的知识,并通过分享这些经验来构建理解的过程。通过本书,大家将会深入理解自然语言处理技术的原理,有朝一日可能创建出能通过语言来了解人类的系统。

本书是介绍自然语言处理(NLP)和深度学习的实战书。NLP已成为深度学习的核心应用领域,而深度学习是NLP研究和应用中的必要工具。本书分为3部分:第一部分介绍NLP基础,包括分词、TF-IDF向量化以及从词频向量到语义向量的转换;第二部分讲述深度学习,包含神经网络、词向量、卷积神经网络(CNN)、循环神经网络(RNN)、长短期记忆(LSTM)网络、序列到序列建模和注意力机制等基本的深度学习模型和方法;第三部分介绍实战方面的内容,包括信息提取、问答系统、人机对话等真实世界系统的模型构建、性能挑战以及应对方法。

本书面向中高级Python开发人员,兼具基础理论与编程实战,是现代NLP领域从业者的实用参考书。

查看全文
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

相关文章

  1. 冠醚作为表面活性剂在化学方面的多重应用

    冠醚作为表面活性剂在化学方面的多重应用 冠醚是类具有特殊结构的化合物,有较强的选择性,并以其特有的高表面活性、分散均匀性以及与各种离子和中性分子之间的高配位性等性质,在化学及其应用领域被广泛研究。同时渗透进许多分支学科&#xf…...

    2024/4/12 7:52:36
  2. DSPE-PEG-PDP,MW:2000 磷脂-聚乙二醇-丙酰胺双巯基吡啶-详情介绍

    1,2-二硬脂酰-sn-甘油-3-磷酸乙醇胺(DSPE)和PDP-共轭聚乙二醇是一种能与巯基发生反应的多功能PEG衍生物。DSPE-PEG-PDP又称DSPE-PEG-OPSS,是一种具有亲水性和疏水性的18碳磷脂PEG偶联物。PDP(吡啶基二硫醇丙酸盐)与自由…...

    2024/4/12 7:52:35
  3. 秦哥整理-教育知识与能力的简答题

    详解 经常关注我的伙伴都知道,我前些日子准备了教资的考试,刚刚考完,不出意料的糊了哈,因为疫情的原因教资上半年考试取消,导致这次考试的人多特别多,刚结束综合素质的作文和数学专业知识的难度就上了微博…...

    2024/5/2 7:21:46
  4. DSPE-PEG-DPD 磷脂聚乙二醇N-二乙基对苯二胺-详情介绍

    中文名称:二硬脂酰基磷脂酰乙醇胺-聚乙二醇-N-二乙基对苯二胺 中文别名:磷脂聚乙二醇N-二乙基对苯二胺;N-二乙基对苯二胺PEG磷脂 英文常用名:DSPE-PEG-DPD 状态:固体/粉末 分子量:PEG分子量可选 纯度&…...

    2024/4/12 7:52:37
  5. 蓝牙耳机什么牌子性价比高?双11高人气平价蓝牙耳机推荐

    在电子竞技空前火热的今天,玩家对于游戏耳机的要求不仅仅停留在能听见声音的层面。特别是目前比较火热的射击类游戏对于游戏耳机的要求更加高,一款出色的游戏耳机可以让玩家在战场上“如虎添翼”,不仅如此,对于玩家而言&#xff0…...

    2024/4/12 8:39:30
  6. 高焕堂-Use Case分析与手机画面布局之规划-UMLChina讲座-音频和幻灯

    时间 北京时间2008年4月14日(周一)晚上19:00-20:30 演讲人 高焕堂。台湾软件架构设计专家。主修于美国Colorado州大学信息科学研究所、台湾淡江大学管理科学研究所。专精于系统整合的架构设计领域,包括领域框架、嵌入式MDA、及企业应用架构…...

    2024/4/12 8:39:29
  7. 2020-11-03 强化学习笔记

    读书笔记强化学习第二章Upper-Confidebce-Bound Action SelectionGradient Bandit AlgorithmsAssociative Search强化学习第二章 Upper-Confidebce-Bound Action Selection 这种方式更加偏向exploration,补充了ϵ−greedy\epsilon-greedyϵ−greedy方法没有对那些…...

    2024/4/12 8:39:28
  8. redis高可用

    目录 集群 主从复制 全量复制 增量复制 无硬盘复制 sentinel(哨兵) 什么是哨兵 sentinel之间的相互感知 master的故障发现 Redis-Cluster(集群) 拓扑结构 Redis的数据分区 HashTags 重定向客户端 分片迁移 槽迁移的…...

    2024/5/2 10:18:14
  9. leet58. 最后一个单词的长度

    题目: 给定一个仅包含大小写字母和空格 的字符串 s,返回其最后一个单词的长度。如果字符串从左向右滚动显示,那么最后一个单词就是最后出现的单词。 如果不存在最后一个单词,请返回 0 。 说明:一个单词是指仅由字…...

    2024/4/12 8:39:26
  10. Day14 数据可视化

    Matplotlib Matplotlib 是 Python 的绘图库。 它可与 NumPy 一起使用,提供了一种有效的 MatLab 开源替代方案。 它也可以和图形工具包一起使用,如 PyQt 和 wxPython。 Matplotlib的基本使用 使用Matplotlib绘图时,主要使用plot函数&#x…...

    2024/4/29 23:06:49
  11. day45

    evadev 躲避,回避birskadj 轻快的,生机勃勃的,兴隆的,繁忙活跃的,寒冷而清新的indignantadj 愤慨的,愤愤不平的mobilen 可动物体,活动装置,手机 adj 可以动的,流动的&…...

    2024/4/12 8:39:24
  12. 【工具】13 款 Linux 实用工具推荐,个个是神器!(附下载链接)

    本文介绍几款Linux比较实用的工具,希望有所帮助。 1、查看进程占用带宽情况-Nethogs Nethogs 是一个终端下的网络流量监控工具可以直观的显示每个进程占用的带宽。 下载:http://sourceforge.net/projects/nethogs/files/nethogs/0.8/nethogs-0.8.0.ta…...

    2024/5/1 19:02:14
  13. 【RED-V】基于 RISC-V 架构的开源开发板

    板卡介绍 RED-V RedBoard 是 SparkFun 出品的开源开发板,主控芯片是基于 RISC-V 架构的 SoC SiFive FE310。FE310 是全球第一款基于 RISC-V 架构的 32 位商用 SoC,采用了 180nm 的工艺,最大工作频率可以到 320MHz,性能大致相当于…...

    2024/5/3 16:24:15
  14. SRRC型号核准认证流程

    SRRC是国家无线电管理委员会强制认证要求,自 1999 年 6 月 1 日起,中国信息产业部 (Ministry of Information Industry, MII) 强制规定,所有在中国境内销售及使用的无线电组件产品,必须取得无线电型号的核准认证 (Radio Type Appr…...

    2024/4/12 7:52:50
  15. 基于tkinter框架的BiliBili视频下载小工具

    上周末,大概花了两个半天的时间制作了一个BiliBili视频下载小工具,这不,下周二考试,孩子不就能用上了! 果然自己动手丰衣足食,下面大伙儿简单看下运行截图: 我内嵌了3个功能:分别是…...

    2024/4/12 7:52:49
  16. DSPE-PEG-VE,MW:2000磷脂-聚乙二醇-维生素E-详情介绍

    中文别名:磷脂-聚乙二醇-维生素E;磷脂-PEG-VE 英文常用名:DSPE-PEG-VE;DSPE-PEG-VE,MW:2000;DSPE-PEG2000-VE PEG可选分子量:2000,3400,5000 纯度:95%以上 状态&#xf…...

    2024/4/21 14:47:07
  17. 亿和论币:11.4BTC 拉升欲意何为 后市如何进行

    消息面: 港府监管虚拟资产拟强制领牌,无牌经营属刑事罪行 【BTC行情分析】 最近大饼一直处于高位盘整状态,就在今日早间,MG正在大选 行情飘忽不定,外界等一些不确定性因素太多,大多数币友处于一个尝试观望态度&#x…...

    2024/4/12 7:52:47
  18. 行为型设计模式(一) 之 策略模式擅长算法的封装与切换

    1 定义 策略模式(Strategy Pattern)属于行为型设计模式,它主要对一系列可供选择的算法进行单独封装,不同的算法实现不同的过程,但最终完成着一样的结果。例如现实场景中,商场促销活动中有着多种方案&#…...

    2024/4/12 7:52:46
  19. 机械师-创物者M 安装UBUNTU 20.04 (WIN 10 + Ubuntu 20 双系统)

    环境 笔记本: 机械师创物者M 144Hz设计笔记本电脑十代i7-10875H/RTX2060独显轻薄全面屏游戏本 标配16G/512G PCIE高速固态 加装1T SSD: 西部数据(Western Digital)1TB SSD固态硬盘 M.2接口(NVMe协议) WD_BLACK SN750游戏高性能版五年质保 Download Ubu…...

    2024/4/12 7:52:45
  20. 网络编程实战框架 一、总体思路

    设计需求 ●采用 reactor 模型,可以灵活使用 poll/epoll 作为事件分发实现。 ●必须支持多线程,从而可以支持单线程单 reactor 模式,也可以支持多线程主 - 从 reactor 模式。可以将套接字上的 I/O 事件分离到多个线程上。 ●封装读写操作到…...

    2024/4/12 7:52:45

最新文章

  1. 【LeetCode刷题记录】230. 二叉搜索树中第K小的元素

    230 二叉搜索树中第K小的元素 给定一个二叉搜索树的根节点 root ,和一个整数 k ,请你设计一个算法查找其中第 k 个最小元素(从 1 开始计数)。 示例 1: 输入:root [3,1,4,null,2], k 1 输出&#xff1…...

    2024/5/5 7:43:22
  2. 梯度消失和梯度爆炸的一些处理方法

    在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言,在此感激不尽。 权重和梯度的更新公式如下: w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...

    2024/3/20 10:50:27
  3. 同一个pdf在windows和linux中的页数不一样

    之前认为PDF的格式,至少页数是不会变化的,结果最近发现一个文档在windows和linux中的页数不一样,linux中的pdf进入像word一样排版变得紧凑了,原本在下一页的几行进入了上一页的末尾。问了gpt后得到这样的回答: PDF文档…...

    2024/5/5 6:48:14
  4. 学习鸿蒙基础(11)

    目录 一、Navigation容器 二、web组件 三、video视频组件 四、动画 1、属性动画 .animation() 2、 转场动画 transition() 配合animateTo() 3、页面间转场动画 一、Navigation容器 Navigation组件一般作为页面的根容器,包括单页面、分栏和自适应三种显示模式…...

    2024/5/4 11:54:31
  5. 416. 分割等和子集问题(动态规划)

    题目 题解 class Solution:def canPartition(self, nums: List[int]) -> bool:# badcaseif not nums:return True# 不能被2整除if sum(nums) % 2 ! 0:return False# 状态定义:dp[i][j]表示当背包容量为j,用前i个物品是否正好可以将背包填满&#xff…...

    2024/5/4 12:05:22
  6. 【Java】ExcelWriter自适应宽度工具类(支持中文)

    工具类 import org.apache.poi.ss.usermodel.Cell; import org.apache.poi.ss.usermodel.CellType; import org.apache.poi.ss.usermodel.Row; import org.apache.poi.ss.usermodel.Sheet;/*** Excel工具类** author xiaoming* date 2023/11/17 10:40*/ public class ExcelUti…...

    2024/5/4 11:23:32
  7. Spring cloud负载均衡@LoadBalanced LoadBalancerClient

    LoadBalance vs Ribbon 由于Spring cloud2020之后移除了Ribbon,直接使用Spring Cloud LoadBalancer作为客户端负载均衡组件,我们讨论Spring负载均衡以Spring Cloud2020之后版本为主,学习Spring Cloud LoadBalance,暂不讨论Ribbon…...

    2024/5/4 14:46:16
  8. TSINGSEE青犀AI智能分析+视频监控工业园区周界安全防范方案

    一、背景需求分析 在工业产业园、化工园或生产制造园区中,周界防范意义重大,对园区的安全起到重要的作用。常规的安防方式是采用人员巡查,人力投入成本大而且效率低。周界一旦被破坏或入侵,会影响园区人员和资产安全,…...

    2024/5/4 23:54:44
  9. VB.net WebBrowser网页元素抓取分析方法

    在用WebBrowser编程实现网页操作自动化时,常要分析网页Html,例如网页在加载数据时,常会显示“系统处理中,请稍候..”,我们需要在数据加载完成后才能继续下一步操作,如何抓取这个信息的网页html元素变化&…...

    2024/5/4 12:10:13
  10. 【Objective-C】Objective-C汇总

    方法定义 参考:https://www.yiibai.com/objective_c/objective_c_functions.html Objective-C编程语言中方法定义的一般形式如下 - (return_type) method_name:( argumentType1 )argumentName1 joiningArgument2:( argumentType2 )argumentName2 ... joiningArgu…...

    2024/5/4 23:54:49
  11. 【洛谷算法题】P5713-洛谷团队系统【入门2分支结构】

    👨‍💻博客主页:花无缺 欢迎 点赞👍 收藏⭐ 留言📝 加关注✅! 本文由 花无缺 原创 收录于专栏 【洛谷算法题】 文章目录 【洛谷算法题】P5713-洛谷团队系统【入门2分支结构】🌏题目描述🌏输入格…...

    2024/5/4 23:54:44
  12. 【ES6.0】- 扩展运算符(...)

    【ES6.0】- 扩展运算符... 文章目录 【ES6.0】- 扩展运算符...一、概述二、拷贝数组对象三、合并操作四、参数传递五、数组去重六、字符串转字符数组七、NodeList转数组八、解构变量九、打印日志十、总结 一、概述 **扩展运算符(...)**允许一个表达式在期望多个参数&#xff0…...

    2024/5/4 14:46:12
  13. 摩根看好的前智能硬件头部品牌双11交易数据极度异常!——是模式创新还是饮鸩止渴?

    文 | 螳螂观察 作者 | 李燃 双11狂欢已落下帷幕,各大品牌纷纷晒出优异的成绩单,摩根士丹利投资的智能硬件头部品牌凯迪仕也不例外。然而有爆料称,在自媒体平台发布霸榜各大榜单喜讯的凯迪仕智能锁,多个平台数据都表现出极度异常…...

    2024/5/4 14:46:11
  14. Go语言常用命令详解(二)

    文章目录 前言常用命令go bug示例参数说明 go doc示例参数说明 go env示例 go fix示例 go fmt示例 go generate示例 总结写在最后 前言 接着上一篇继续介绍Go语言的常用命令 常用命令 以下是一些常用的Go命令,这些命令可以帮助您在Go开发中进行编译、测试、运行和…...

    2024/5/4 14:46:11
  15. 用欧拉路径判断图同构推出reverse合法性:1116T4

    http://cplusoj.com/d/senior/p/SS231116D 假设我们要把 a a a 变成 b b b,我们在 a i a_i ai​ 和 a i 1 a_{i1} ai1​ 之间连边, b b b 同理,则 a a a 能变成 b b b 的充要条件是两图 A , B A,B A,B 同构。 必要性显然&#xff0…...

    2024/5/5 2:25:33
  16. 【NGINX--1】基础知识

    1、在 Debian/Ubuntu 上安装 NGINX 在 Debian 或 Ubuntu 机器上安装 NGINX 开源版。 更新已配置源的软件包信息,并安装一些有助于配置官方 NGINX 软件包仓库的软件包: apt-get update apt install -y curl gnupg2 ca-certificates lsb-release debian-…...

    2024/5/4 21:24:42
  17. Hive默认分割符、存储格式与数据压缩

    目录 1、Hive默认分割符2、Hive存储格式3、Hive数据压缩 1、Hive默认分割符 Hive创建表时指定的行受限(ROW FORMAT)配置标准HQL为: ... ROW FORMAT DELIMITED FIELDS TERMINATED BY \u0001 COLLECTION ITEMS TERMINATED BY , MAP KEYS TERMI…...

    2024/5/4 12:39:12
  18. 【论文阅读】MAG:一种用于航天器遥测数据中有效异常检测的新方法

    文章目录 摘要1 引言2 问题描述3 拟议框架4 所提出方法的细节A.数据预处理B.变量相关分析C.MAG模型D.异常分数 5 实验A.数据集和性能指标B.实验设置与平台C.结果和比较 6 结论 摘要 异常检测是保证航天器稳定性的关键。在航天器运行过程中,传感器和控制器产生大量周…...

    2024/5/4 13:16:06
  19. --max-old-space-size=8192报错

    vue项目运行时,如果经常运行慢,崩溃停止服务,报如下错误 FATAL ERROR: CALL_AND_RETRY_LAST Allocation failed - JavaScript heap out of memory 因为在 Node 中,通过JavaScript使用内存时只能使用部分内存(64位系统&…...

    2024/5/4 16:48:41
  20. 基于深度学习的恶意软件检测

    恶意软件是指恶意软件犯罪者用来感染个人计算机或整个组织的网络的软件。 它利用目标系统漏洞,例如可以被劫持的合法软件(例如浏览器或 Web 应用程序插件)中的错误。 恶意软件渗透可能会造成灾难性的后果,包括数据被盗、勒索或网…...

    2024/5/4 14:46:05
  21. JS原型对象prototype

    让我简单的为大家介绍一下原型对象prototype吧! 使用原型实现方法共享 1.构造函数通过原型分配的函数是所有对象所 共享的。 2.JavaScript 规定,每一个构造函数都有一个 prototype 属性,指向另一个对象,所以我们也称为原型对象…...

    2024/5/5 3:37:58
  22. C++中只能有一个实例的单例类

    C中只能有一个实例的单例类 前面讨论的 President 类很不错,但存在一个缺陷:无法禁止通过实例化多个对象来创建多名总统: President One, Two, Three; 由于复制构造函数是私有的,其中每个对象都是不可复制的,但您的目…...

    2024/5/4 23:54:30
  23. python django 小程序图书借阅源码

    开发工具: PyCharm,mysql5.7,微信开发者工具 技术说明: python django html 小程序 功能介绍: 用户端: 登录注册(含授权登录) 首页显示搜索图书,轮播图&#xff0…...

    2024/5/4 9:07:39
  24. 电子学会C/C++编程等级考试2022年03月(一级)真题解析

    C/C++等级考试(1~8级)全部真题・点这里 第1题:双精度浮点数的输入输出 输入一个双精度浮点数,保留8位小数,输出这个浮点数。 时间限制:1000 内存限制:65536输入 只有一行,一个双精度浮点数。输出 一行,保留8位小数的浮点数。样例输入 3.1415926535798932样例输出 3.1…...

    2024/5/4 14:46:02
  25. 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...

    解析如下:1、长按电脑电源键直至关机,然后再按一次电源健重启电脑,按F8健进入安全模式2、安全模式下进入Windows系统桌面后,按住“winR”打开运行窗口,输入“services.msc”打开服务设置3、在服务界面,选中…...

    2022/11/19 21:17:18
  26. 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。

    %读入6幅图像(每一幅图像的大小是564*564) f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...

    2022/11/19 21:17:16
  27. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...

    win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面,在等待界面中我们需要等待操作结束才能关机,虽然这比较麻烦,但是对系统进行配置和升级…...

    2022/11/19 21:17:15
  28. 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...

    有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows,请勿关闭计算机”的提示,要过很久才能进入系统,有的用户甚至几个小时也无法进入,下面就教大家这个问题的解决方法。第一种方法:我们首先在左下角的“开始…...

    2022/11/19 21:17:14
  29. win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...

    置信有很多用户都跟小编一样遇到过这样的问题,电脑时发现开机屏幕显现“正在配置Windows Update,请勿关机”(如下图所示),而且还需求等大约5分钟才干进入系统。这是怎样回事呢?一切都是正常操作的,为什么开时机呈现“正…...

    2022/11/19 21:17:13
  30. 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...

    Win7系统开机启动时总是出现“配置Windows请勿关机”的提示,没过几秒后电脑自动重启,每次开机都这样无法进入系统,此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一:开机按下F8,在出现的Windows高级启动选…...

    2022/11/19 21:17:12
  31. 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...

    有不少windows10系统用户反映说碰到这样一个情况,就是电脑提示正在准备windows请勿关闭计算机,碰到这样的问题该怎么解决呢,现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法:1、2、依次…...

    2022/11/19 21:17:11
  32. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...

    今天和大家分享一下win7系统重装了Win7旗舰版系统后,每次关机的时候桌面上都会显示一个“配置Windows Update的界面,提示请勿关闭计算机”,每次停留好几分钟才能正常关机,导致什么情况引起的呢?出现配置Windows Update…...

    2022/11/19 21:17:10
  33. 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...

    只能是等着,别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚,只能是考虑备份数据后重装系统了。解决来方案一:管理员运行cmd:net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...

    2022/11/19 21:17:09
  34. 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?

    原标题:电脑提示“配置Windows Update请勿关闭计算机”怎么办?win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢?一般的方…...

    2022/11/19 21:17:08
  35. 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...

    关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!关机提示 windows7 正在配…...

    2022/11/19 21:17:05
  36. 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...

    钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...

    2022/11/19 21:17:05
  37. 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...

    前几天班里有位学生电脑(windows 7系统)出问题了,具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面,长时间没反应,无法进入系统。这个问题原来帮其他同学也解决过,网上搜了不少资料&#x…...

    2022/11/19 21:17:04
  38. 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...

    本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法,并在最后教给你1种保护系统安全的好方法,一起来看看!电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中,添加了1个新功能在“磁…...

    2022/11/19 21:17:03
  39. 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...

    许多用户在长期不使用电脑的时候,开启电脑发现电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机。。.这要怎么办呢?下面小编就带着大家一起看看吧!如果能够正常进入系统,建议您暂时移…...

    2022/11/19 21:17:02
  40. 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...

    配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!配置windows update失败 还原更改 请勿关闭计算机&#x…...

    2022/11/19 21:17:01
  41. 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...

    不知道大家有没有遇到过这样的一个问题,就是我们的win7系统在关机的时候,总是喜欢显示“准备配置windows,请勿关机”这样的一个页面,没有什么大碍,但是如果一直等着的话就要两个小时甚至更久都关不了机,非常…...

    2022/11/19 21:17:00
  42. 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...

    当电脑出现正在准备配置windows请勿关闭计算机时,一般是您正对windows进行升级,但是这个要是长时间没有反应,我们不能再傻等下去了。可能是电脑出了别的问题了,来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...

    2022/11/19 21:16:59
  43. 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...

    我们使用电脑的过程中有时会遇到这种情况,当我们打开电脑之后,发现一直停留在一个界面:“配置Windows Update失败,还原更改请勿关闭计算机”,等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢&#xff0…...

    2022/11/19 21:16:58
  44. 如何在iPhone上关闭“请勿打扰”

    Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...

    2022/11/19 21:16:57