【图神经网络】图神经网络(GNN)学习笔记:表示学习
图神经网络GNN学习笔记:表示学习
- 1. 表示学习
- 1.1 表示学习的意义
- 1.2 离散表示与分布式表示
- 1.3 端到端学习是一种强大的表示学习方法
- 2. 基于重构损失的方法——自编码器
- 2.1 自编码器
- 2.2 正则自编码器
- 2.2.1 去噪自编码器
- 2.2.2 稀疏自编码器
- 2.2.3 变分自编码器
- 3. 基于对比损失的方法——Word2vec
- 3.1 词向量模型——Skip-gram
- 3.2 负采样
- 3.3 词向量可视化
- 参考资料
如果有一类方法可以 自动地从数据中去学习“有用”的特征,并可以直接用于后续的具体任务,这类方法称为
表示学习
。
1. 表示学习
1.1 表示学习的意义
传统机器学习中,需要在数据处理和转换上花费大量精力才能保证特征工程选取的特征使得机器学习算法更有效。如果存在一种可以从数据中得到有判别性特征的方法,就会减少机器学习算法对特征工程的依赖。从而可以将机器学习应用到更多的领域,这就是表示学习的价值。
那么对于表示学习来说,要回答3个问题:
(1)如何判断一个表示比另一个表示更好?
(2)如何挖掘这些表示?
(3)使用什么样的目标去得到一个好的表示?
举一个例子就是一个图像,计算机能够得到的知识一个个像素点这样的原始数据,只关注像素点是无法得到一些具体信息的;而人在看到一个图像的时候自然会通过高层的抽象语义来判断,这之间的差距称为语义鸿沟,它指的是低层次特征和高层次抽象之间的差异。一个好的表示就应该尽可能减小这个语义鸿沟,提供一些高层次的有价值的特征。
1.2 离散表示与分布式表示
机器学习中,对一个对象的表示有两种常见的方式:独热编码(one-hot)和分布式表示。
- 独热码将研究的对象表示成一个向量,只在某个维度上为1,其余全为0。有多少种类型,向量的长度就有多长。举例:自然语言处理中的词袋模型
- 分布式表示就是通过某种方式得到一个低维稠密的向量来表示研究对象,典型的例子就是颜色,可以用RGB值的三元组来表示。
独热码表示起来非常简单,只需要列出所有可能的值就可以得到,但它会使得所有不同的表示都是相互独立(正交)的,这会让它表示起来丢失大量的语义信息,此外独热向量的维度可能非常高且非常稀疏。
而分布式表示就能够保留这些语义信息,而且维度可以很低,当然相应的也会比独热码实现起来更复杂一点。
1.3 端到端学习是一种强大的表示学习方法
所谓端到端学习(end-to-end learning)就是以原始输入作为输入,并直接输出想要得到结果(比如分类)。相应的,传统的机器学习模型中,一些工作都是先处理输入,通过特征工程提取出特征,之后再交由分类器进行判断。
由此端到端学习可以看作是表示学习与任务学习的结合(提取特征+分类),它们不是完全分裂的,而是联合优化的,一次反向传播更新的不只是基于特征给出分类结果的参数,还更新了提取特征的参数使得整个模型的效果会更好,这体现了深度学习模型的优越性。
深度学习模型另一个优势是能够学习到数据的层次化表达。低层次的特征更加通用,高层次的特征则更贴近具体任务,所以对于一些比较相近的任务,其实是可以使用相同的低层次特征的,这让深度学习可以进行迁移学习
。
表示学习的任务通常是学习这样一个映射:f:X→Rdf:X\rightarrow R^df:X→Rd,即将输入映射到一个稠密的低维向量空间中。这里介绍两种典型的表示学习方法:基于重构损失的方法
和基于对比损失的方法
。
2. 基于重构损失的方法——自编码器
自编码器
是一种无监督
的表示学习模型
,以输入数据为参考,可以用于数据降维
和特征提取
。
2.1 自编码器
自编码器的思路是:将输入映射到某个特征空间,再从这个特征空间映射回输入空间进行重构。结构上看它由编码器
和解码器
组成,编码器用于从输入中提取特征,解码器则用于从特征重构出输入数据。在训练完成后,使用编码器进行特征提取。
最简单的自编码器有3层组成:1个输入层、1个隐藏层、1个输出层。从输入到隐藏层就是编码器,从隐藏层到输出层就是解码器。
给定输入x∈Rnx\in R^nx∈Rn,假设从输入层到隐藏层的变换矩阵为Wenc∈Rd×nW_{enc}\in R^{d\times n}Wenc∈Rd×n,ddd为隐藏层的神经元数目,经过变换h=σ(Wencx+benc)h=\sigma (W_{enc}x+b_{enc})h=σ(Wencx+benc)得到编码后的特征为h∈Rdh\in R^{d}h∈Rd。解码器将编码特征hhh映射回输入空间,假设从隐藏层到输出层的编码矩阵为Wdec∈Rn×dW_{dec}\in R^{n\times d}Wdec∈Rn×d,经过变换x~=σ(Wdech+bdec)\tilde{x}=\sigma(W_{dec}h+b_{dec})x~=σ(Wdech+bdec)得到重构的输入为x~\tilde{x}x~。
自编码器不需要额外的标签信息进行监督学习,它是通过不断最小化输入和输出之间的重构误差进行训练的。基于损失函数L=1N∑i∣∣xi−xi~∣∣22L=\frac{1}{N} \sum_i {||x_i-\tilde{x_i}||_2^2}L=N1i∑∣∣xi−xi~∣∣22,通过反向传播计算梯度,利用梯度下降算法不断优化参数Wenc,Wdec,benc,bdecW_{enc},W_{dec},b_{enc},b_{dec}Wenc,Wdec,benc,bdec。
一般来说编码器的结构不局限于只有一个隐藏层的全连接网络,一般来说,编码器和解码器可以是更复杂的模型,分别用fff和ggg来表示,损失函数可以表示为L=1N∑i∣∣xi−g(f(xi))∣∣22L=\frac{1}{N}\sum_i {||x_i-g(f(x_i))||_2^2}L=N1i∑∣∣xi−g(f(xi))∣∣22,其中N为样本数量。
通过训练编码器得到数据中的一些有用特征,最常用的一种方式是通过限定hhh的维度比xxx的维度小,即d<nd<nd<n,符合这种条件的编码器称为欠完备自编码器
。这种自编码器在一定的条件下可以得到类似于主成分分析(PCA)
的效果。使用非线性的编码器和解码器可以得到更强大的效果。
比较容易混淆的一点是:这个自编码器先编码再解码,最后得到的不还是原始输入或者逼近原始输入的东西吗?所以要特别注意,自编码器训练完后,是直接拿输入过一个编码器进行特征提取再放到后面的神经网络里去的,解码器就用不到了,有种GAN的思想。
2.2 正则自编码器
如果编码器的维度大于等于输入的维度d≥nd\ge nd≥n,那么就被称为过完备自编码器
。如果不对过完备自编码器进行一些限制,那么其可能会更倾向于将输入拷贝到输出,从而得不到特征。因此通常会对模型进行一些正则化的约束。
2.2.1 去噪自编码器
去噪自编码器的改进在于在原始输入的基础上加入了一些噪声作为编码器的输入。解码器需要重构出不加噪声的原始输入xxx,通过施加这个约束,迫使编码器不能简单地学习一个恒等变换,而必须从加噪的数据中提取出有用信息用于恢复原始数据。
具体做法是:随机将输入x的一部分置为0,这样就得到了加入噪声的输入xδx_\deltaxδ作为编码器的输入,解码器需要重构出不带噪声的数据x,因此损失函数为:
L=1N∑i=1∣∣x−g(f(xδ))∣∣L=\frac{1}{N}\sum_{i=1}||x-g(f(x_\delta))||L=N1i=1∑∣∣x−g(f(xδ))∣∣
2.2.2 稀疏自编码器
在损失函数上加入正则项使得模型学习到有用的特征,比如隐藏层使用Sigmoid激活函数,我们认为神经元的输出接近1时是活跃的,而接近0时是不活跃的,稀疏自编码器就是限制神经元的活跃度来约束模型,尽可能使大多数神经元处于不活跃的状态。
定义一个神经元的活跃度为它在所有样本上取值的平均值,用ρi^\hat{\rho_i}ρi^表示。限制ρi^=ρi\hat{\rho_i}=\rho_iρi^=ρi,ρi\rho_iρi是一个超参数,表示期望的活跃度,通常是一个接近于0的值。通过对与ρi\rho_iρi偏离较大的神经元进行惩罚,就可以得到稀疏的编码特征。这里选择使用相对熵
作为正则项,如下:
Lsparse=∑j=1dρlogρρj^+(1−ρ)log1−ρ1−ρj^L_{sparse}=\sum_{j=1}^{d}\rho\log{\frac{\rho}{\hat{\rho_j}}}+(1-\rho)\log{\frac{1-\rho}{1-\hat{\rho_j}}}Lsparse=j=1∑dρlogρj^ρ+(1−ρ)log1−ρj^1−ρ
相对熵可以量化表示两个概率分布之间的差异。当两个分布相差越大时,相对熵值越大;当两个分布完全相同时,相对熵值为0。
加上稀疏项的惩罚后,损失函数变为:
L=L(xi,g(f(xi)))+λLsparseL=L(x_i,g(f(x_i)))+\lambda L_{sparse}L=L(xi,g(f(xi)))+λLsparse
其中,λ\lambdaλ是调节重构项和稀疏正则项的权重。
2.2.3 变分自编码器
变分自编码器可以用于生成新的样本数据。
1.变分自编码器的原理
变分自编码器的本质是生成模型
,其假设样本都是服从某个复杂分布P(x)P(x)P(x),即x∼P(X)x\sim P(X)x∼P(X),生成模型的目的就是要建模P(X)P(X)P(X),这样就可以从分布中进行采样,得到新的样本数据。
一般来说,每个样本都可能受到一些因素的控制,这些因素称为隐变量
。假设有多个隐变量,用向量zzz表示,概率密度函数为p(z)p(z)p(z)。同时有一个函数f(z:θ)f(z:\theta)f(z:θ),它可以把p(z)p(z)p(z)中采样的数据zzz映射为与XXX比较相似的数据样本,即p(X∣z)p(X∣z)p(X∣z)的概率更高。
引入隐变量后通过p(x)=∫zp(x∣z)p(z)dzp(x)=\int_z{p(x|z)p(z)}dzp(x)=∫zp(x∣z)p(z)dz来求解p(X)p(X)p(X)的分布,这里需要考虑两个问题:
- 如何选定隐变量zzz
- 如何计算积分
对于隐变量zzz的选择,变分编码器假设zzz的每个维度都没有明确的含义,而仅仅要求z方便采用。因此假设z服从标准正态分布z∼N0,Iz\sim N{0,I}z∼N0,I。而p(x∣z)p(x|z)p(x∣z)的选择常常也是正态分布,它的均值为f(z;θ)f(z;\theta)f(z;θ),方差为σ2I\sigma^2Iσ2I,其中σ\sigmaσ是一个超参数。
p(x∣z)=N(f(z;θ),σ2I)p(x|z)=N(f(z;\theta),\sigma^2I)p(x∣z)=N(f(z;θ),σ2I)
为什么上述假设是合理的呢?实际上任何一个d维的复杂分布都可以通过对d维正态分布使用一个复杂的变换得到,因此,给定一个表达能力足够强的函数,可以将服从正态分布的隐变量z映射为模型需要的隐变量,再将这些隐变量映射为x。
但是大部分的z都不能生成与x相似的样本,即p(x∣z)p(x|z)p(x∣z)通常都接近于0,因此需要那种能够大概率生成比较像x的z。如何得到呢?如果知道z的后验分布p(z∣x)p(z|x)p(z∣x),就可以通过x推断得到。变分自编码器引入了另一个分布q(z∣x)q(z|x)q(z∣x)来近似后验分布p(z∣x)p(z|x)p(z∣x)。那么问题是Ez∼q(z∣x)[p(x∣z)]E_{z\sim q(z|x)}[p(x|z)]Ez∼q(z∣x)[p(x∣z)]与p(x)p(x)p(x)的关系是怎么样的?这里计算q(z∣x)q(z|x)q(z∣x)和p(z∣x)p(z|x)p(z∣x)的KL距离,如下:
DKL[q(z∣x)∣∣p(z∣x)]=Ez∼q(z∣x)[logq(z∣x)−logp(z∣x)]D_{KL}[q(z|x)||p(z|x)]=E_{z\sim q(z|x)}[\log q(z|x)-\log p(z|x)]DKL[q(z∣x)∣∣p(z∣x)]=Ez∼q(z∣x)[logq(z∣x)−logp(z∣x)]
然后使用贝叶斯公式展开,得到如下公式:
DKL[q(z∣x)∣∣p(z∣x)]=Ez∼q(z∣x)[logq(z∣x)−logp(x∣z)−logp(z)]+logp(x)D_{KL}[q(z|x)||p(z|x)]=E_{z\sim q(z|x)}[\log q(z|x)-\log p(x|z)-\log p(z)]+\log p(x)DKL[q(z∣x)∣∣p(z∣x)]=Ez∼q(z∣x)[logq(z∣x)−logp(x∣z)−logp(z)]+logp(x)
logp(x)−DKL[q(z∣x)∣∣p(z∣x)]=Ez∼q(z∣x)[log(p(x∣z))]−DKL[q(z∣x)∣∣p(z)]\log p(x)-D_{KL}[q(z|x)||p(z|x)]=E_{z\sim q(z|x)}[\log (p(x|z))]-D_{KL}[q(z|x)||p(z)]logp(x)−DKL[q(z∣x)∣∣p(z∣x)]=Ez∼q(z∣x)[log(p(x∣z))]−DKL[q(z∣x)∣∣p(z)]
上式即为整个变分自编码器的核心(尽管我没有看懂),左边包含了要优化的目标p(x)p(x)p(x),当我们选择的q(z∣x)q(z|x)q(z∣x)表达能力足够强时,是可以近似表达p(z∣x)p(z|x)p(z∣x)的。也就是说DKL[q(z∣x)∣∣p(z∣x)]D_{KL}[q(z|x)||p(z|x)]DKL[q(z∣x)∣∣p(z∣x)]是一个趋近于0的数。右边第一项实际上就是一个编码器,将基于输入x得到的最有可能生成相似样本的隐变量采样出来,通过解码器得到生成的样本,右边第二项是一个正则项。
前面假设p(x∣z)p(x|z)p(x∣z)是正态分布,那么对于公式logp(x)−DKL[q(z∣x)∣∣p(z∣x)]=Ez∼q(z∣x)[log(p(x∣z))]−DKL[q(z∣x)∣∣p(z)]\log p(x)-D_{KL}[q(z|x)||p(z|x)]=E_{z\sim q(z|x)}[\log (p(x|z))]-D_{KL}[q(z|x)||p(z)]logp(x)−DKL[q(z∣x)∣∣p(z∣x)]=Ez∼q(z∣x)[log(p(x∣z))]−DKL[q(z∣x)∣∣p(z)]右边第一项,计算得到损失函数的第一部分重构损失,注意这里取负号是由于使用梯度下降的方法进行优化,因此目标变为最小化−p(x)-p(x)−p(x),f(z;θ)f(z;\theta)f(z;θ)可以使用神经网络来实现。
−logp(x∣z)=−log1∐i=1D2πσ2exp(−(x−f(z;θ))22σ2)=12σ2(x−f(z;θ))2+constant-\log p(x|z)=-\log \frac{1}{\coprod_{i=1}^{D}\sqrt{2\pi \sigma ^2}}\exp (-\frac{(x-f(z;\theta))^2}{2\sigma ^2})=\frac{1}{2\sigma ^2}(x-f(z;\theta ))^2+constant −logp(x∣z)=−log∐i=1D2πσ21exp(−2σ2(x−f(z;θ))2)=2σ21(x−f(z;θ))2+constant
对于q(z∣x)q(z|x)q(z∣x)的选择,也假设服从正态分布,它的各分量相互独立,如公式DKL[q(z∣x)∣∣p(z)]=12∑i=1d(μ(i)2(x)+σ(i)2(x)−lnσ(i)2(x)−1)D_{KL}[q(z|x)||p(z)]=\frac{1}{2}\sum _{i=1}^d(\mu _{(i)}^2(x)+\sigma _{(i)}^2(x)-\ln \sigma _{(i)}^2(x)-1)DKL[q(z∣x)∣∣p(z)]=21∑i=1d(μ(i)2(x)+σ(i)2(x)−lnσ(i)2(x)−1)所示,那么可以得到损失函数的第二部分正则项。
q(z∣x)=1∐i=1d2πσi2(x)exp(−(z−μ(x))22σ2(x))q(z|x)=\frac{1}{\coprod_{i=1}^{d}\sqrt{2\pi \sigma_i^2(x)}}\exp (-\frac{(z-\mu(x))^2}{2\sigma^2(x)})q(z∣x)=∐i=1d2πσi2(x)1exp(−2σ2(x)(z−μ(x))2)
根据上述原理,可以得出变分自编码器的结构,如下所示:
现在的问题是隐变量z是通过采样得到的,而采样操作是不可导的,无法进行反向传播,使用一个称为“重参数化”的技巧解决这个问题。具体地,先从正态分布N(0,I)N(0,I)N(0,I)中采样得到ϵ\epsilonϵ,隐变量zzz通过计算得到:z=ϵμ(x)+σ(x):z=\epsilon \mu (x)+\sigma (x):z=ϵμ(x)+σ(x),这样就解决了反向传播的问题。
2.与自编码器对比
自编码器是一种无监督的表示学习方法,而变分自编码器本质上是生成模型。传统的自编码器的隐藏层空间是不连续的,其由一个个样本点编码构成,对于没有样本编码的地方,由于解码器没有见过这种隐藏层特征,因此当任意给定隐藏层向量时,解码器也就不能给出有意义的输出。而变分自编码器则是要建模样本的分布p(x)p(x)p(x),所以当训练完成后,只使用解码器就可以生成样本。
3. 基于对比损失的方法——Word2vec
Word2vec模型将词嵌入到一个向量空间中,用低维的向量表达每个词,并且语义相关的词距离更近。
3.1 词向量模型——Skip-gram
Word2vec是2013年由Tomas Mikolov提出的,核心思想是用一个词的上下文去刻画这个词。对应的有两种模型:
- 给定某个中心词的上下文去预测中心词,这个模型称为
CBow
; - 给定一个中心词预测其上下文词,这个模型称为
Skip-gram
;
给定一个语料库,它可以由多篇文档组成,假设该语料库可以表示为一个长度为N的语料库的序列C=w1,w2,...,wNC={w_1,w_2,...,w_N}C=w1,w2,...,wN,单词的词表为VVV,wi∈Vw_i\in Vwi∈V。Ship-gram模型使用中心词预测上下文,定义上下文词以中心词为中心的某个窗口内的词,假设窗口的大小为2m+12m+12m+1。希望在给定某个中心词的条件下,输出词为上下文的概率最大。
如下图所示,对于一个文本,选择中心词“网络”,取m=2m=2m=2,以中心词及其上下文词构成的单词对为正样本DDD,由中心词与其非上下文词构成的单词对为负样本,即为Dˉ\bar{D}Dˉ。如下:
要想正确地根据中心词预测上下文词,那么可以最大化正样本中的单词对作为上下文出现的概率,同时最小化负样本中单词对作为上下文出现的概率,以此构造目标函数。具体来说,对正负样本定义标签,其中wcw_cwc表示中心词。
KaTeX parse error: Expected '}', got '_' at position 38: …1 & \text{ if(w_̲c, w)}\in D \\ …
目标是找到条件概率p(y=1∣(wc,w))p(y=1|(w_c,w))p(y=1∣(wc,w))和p(y=0∣∣(wc,w))p(y=0||(w_c,w))p(y=0∣∣(wc,w))最大化的参数,如下所示:
θ∗=argmax∏(wc,w)∈Dp(y=1∣(wc,w))∏(wc,w)∈Dˉp(y=0∣(wc,wneg);θ)\theta^*=\arg\max\prod_{(w_c, w)\in D}{p(y=1|(w_c, w))}\prod_{(w_c, w)\in\bar{D}}{p(y=0|(w_c,w_{neg});\theta)}θ∗=argmax(wc,w)∈D∏p(y=1∣(wc,w))(wc,w)∈Dˉ∏p(y=0∣(wc,wneg);θ)
这样问题就转化为一个二分类问题。给定任意两个词,判断它们是否是上下文词,因此,可以使用逻辑回归来建模这个问题。引入两个矩阵U∈R∣D∣×dU\in R^{|D|\times d}U∈R∣D∣×d,V∈R∣D∣×dV\in R^{|D|\times d}V∈R∣D∣×d,它们中的每一行代表着一个词,在模型训练完成后,它们就是包含语义表达的词向量。
U、VU、VU、V分别对应一个词作为中心词和上下文词两种角色下的不同表达。对于一个词www,定义UwU_wUw表示它对应的词向量。那么可以将上面的条件概率公式表示为p(y∣(wc,w))={σ(Uwc⋅Vw)if y=11−σ(Uwc⋅Vw)if y=0p(y|(w_c,w))=\begin{cases} \sigma(U_{w_c} \cdot V_w) & \text{ if } y= 1\\ 1-\sigma(U_{w_c} \cdot V_w) & \text{ if } y=0 \end{cases}p(y∣(wc,w))={σ(Uwc⋅Vw)1−σ(Uwc⋅Vw) if y=1 if y=0,其中σ(x)\sigma(x)σ(x)表示Sigmoid函数。
联合前面得到的公式,取对数,可以得到L=−∑(wc,w)∈Dlogσ(Uwc⋅Vw)−∑(wc,w)∈Dˉlog(1−σ(Uwc⋅Vw))=−∑(wc,w)∈Dlogσ(Uwc⋅Vw)−∑(wc,w)∈Dˉlogσ(−Uwc⋅Vw)L=-\sum_{(w_c,w)\in D}\log{\sigma(U_{w_c}\cdot V_w)}-\sum_{(w_c,w)\in \bar{D}}\log{(1-\sigma(U_{w_c}\cdot V_w))}=-\sum_{(w_c,w)\in D}\log{\sigma(U_{w_c}\cdot V_w)}-\sum_{(w_c,w)\in \bar{D}}\log{\sigma (-U_{w_c}\cdot V_w)}L=−(wc,w)∈D∑logσ(Uwc⋅Vw)−(wc,w)∈Dˉ∑log(1−σ(Uwc⋅Vw))=−(wc,w)∈D∑logσ(Uwc⋅Vw)−(wc,w)∈Dˉ∑logσ(−Uwc⋅Vw),这就是Skip-gram的目标函数。
上式一方面在增大正样本的概率,另一方面在减少负样本的概率。实际上增大正样本的概率就是在增大Uwc⋅VwU_{w_c}\cdot V_wUwc⋅Vw,即中心词与上下文词的内积,也就是它们之间的相似度。也就是说,最小化上式实际上会使得中心词与上下文词之间的距离变小,而与非上下文词之间的距离更大
,通过这种方式作为监督信号指导模型进行学习,模型收敛之后,参数矩阵U,VU,VU,V就是我们需要的词向量,通常我们取UUU作为最终的词向量。
构建正样本,并最大化正样本之间的相似度,最小化负样本之间的相似度的方式是表示学习中构建损失函数一种常用的思路,这类损失被称为对比损失,它将数据及其邻居在输入空间中的关系仍然能够被保留。不同任务中数据的邻居关系可能是不同的,这里邻居关系是上下文词。比如在人脸识别中,正样本可以定义为同一个体在不同条件下的人脸图像,负样本定义为不同个体的人脸图像,通过对比损失进行优化以学习到具有判别性的特征用于人脸识别。
3.2 负采样
通常情况下负样本的数量远比正样本多,这使得对负样本的计算会成为整体计算的瓶颈。容易想到的解决方案就是负采样技术
,就是利用采样的方式来降低计算量,它在我们无法计算所有的负样本或者计算代价过高时,提供了一种降低计算复杂度的方法。使用负采样技术后,对于中心词wcw_cwc来说,损失函数变为如下−logσ(UwcVw)−∑i=1nlogσ(−UwcVNEG(wc)i)-\log \sigma(U_{w_c} V_w)-\sum_{i=1}^n\log \sigma(-U_{w_c}V_{NEG(w_c)_i})−logσ(UwcVw)−i=1∑nlogσ(−UwcVNEG(wc)i)
,其中NEG(wc)NEG(w_c)NEG(wc)表示采样得到的与wcw_cwc构成负样本的词集合,通过负采样将负样本的计算复杂度从O(∣V∣)O(|V|)O(∣V∣)降至O(n)O(n)O(n),其中n<<∣V∣n<<|V|n<<∣V∣。在采样时一般不使用均匀采样,而是采用以词频为权重的带权采样。这种采样方式优化的不仅是词向量的内积,更是词向量的互信息。
3.3 词向量可视化
将学习到的词向量降维到二维空间进行可视化,语义相关或相近的词之间距离更近,语义差别较大的词相距较远。另外,某些词之间存在着一定的平移不变性。
参考资料
[1] 《深入浅出图神经网络:GNN原理解析》
[2] https://blog.csdn.net/Jeff__Fang/article/details/117198924
[3] 一文理解变分自编码器
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
相关文章
- 2021年美容师(初级)考试资料及美容师(初级)考试试卷
题库来源:安全生产模拟考试一点通公众号小程序 安全生产模拟考试一点通:美容师(初级)考试资料是安全生产模拟考试一点通总题库中生成的一套美容师(初级)考试试卷,安全生产模拟考试一点通上美容…...
2024/4/19 15:33:25 - Hyperworks许可不够
你所在的企业在软件工具领域是否面临如下许可问题? 本篇文章主要介绍如果你在使用Hyperworks软件的时候发生了许可资源不够的情况,应该怎么处理呢?这种不够的情况通常出现在企业中,因公司购买许可数量有限,但使用Hyper…...
2024/4/28 4:30:33 - 平衡二叉树的高度的计算
描述 假设一棵平衡二叉树的每个结点都标明了平衡因子b,设计一个算法,求平衡二叉树的高度。 输入 多组数据,每组数据一行,为平衡二叉树的先序序列。输入的数字为该节点的平衡因子。当序列为“#”时,输入结束。 输出…...
2024/4/28 5:30:34 - Android 正 N 边形圆角头像的实现,android移动开发基础答案
第二种: 使用 BitmapShader 实现 今天,让我们一起来看一下怎样实现正 N 变形圆角头像的实现。 在讲解之前,让我们先来看一下怎样使用我们的控件 老规矩,在讲解怎样实现以前,我们先一起来看一下怎样使用我们的自定义控…...
2024/4/28 7:06:29 - 操作符详解
举个例子: 左边打印的是整数,右边因为是2.0,有一个小数,所以最后的结果是小数2.500000. 使用取模运算这样就会出错。 说明该编译器是算术移位。 逻辑右移如下: 位操作符: 这个方法只能实现正数࿰…...
2024/4/20 1:03:58 - FreeRTOS 任务调度原理(基于cortexM内核)
目录 默认FreeRTOS调度策略(单核) FreeRTOS调度策略的实现 任务创建 任务调度的4种情景: 1.第一次启动任务调度器 2.任务主动触发调度 3.SystemTick时钟触发调度 4.因为中断而引起的任务调度 默认FreeRTOS调度策略(单核&…...
2024/4/20 11:26:13 - 全球及中国油酸甘油酯行业现状分析及发展趋势预测报告2022~2028年
全球及中国油酸甘油酯行业现状分析及发展趋势预测报告2022~2028年 1 油酸甘油酯市场概述 1.1 油酸甘油酯行业概述及统计范围 1.2 按照不同产品类型,油酸甘油酯主要可以分为如下几个类别 1.2.1 不同产品类型油酸甘油酯增长趋势2019 VS 2022 VS 2028 1.2.…...
2024/4/14 6:48:04 - Redis6
NoSQL NoSQL(Not Only SQL),非关系型数据库,NoSQL不依赖业务逻辑方式存储,而以简单的key-value的模式存储,因此大大增加了数据库的扩展能力。 特点: 不遵循SQL标准不支持ACID远超于SQL的性能 …...
2024/4/14 6:47:54 - 【刷】两数之和
两数字和 链接; https://leetcode-cn.com/problems/two-sum/. 第一种解法 暴力直接两重循环,第一个循环负责遍历值,第二个循环负责找另外一个值 循环从第一个数的后面一个数开始 时间复杂度为O(n^2) func twoSum(nums []int, target int) []int {for i …...
2024/4/14 6:48:35 - mysql 添加索引慢_你写的Sql为什么那么慢?你的mysql索引为什么失效了?
文章来自:php自学中心 链接:http://www.startphp.cn/front/sql/0225147.html 作者:fengzi 商务合作:请加微信(QQ):2230304070 视频教程推荐 以下视频教程的网址:http://blog.startphp.cn 已经更改为:http…...
2024/4/14 6:47:59 - C语言数据结构直接插入排序
C语言数据结构直接插入排序 算法效率: 平均时间复杂度: O(n^2); #include <stdio.h>void Straight_Sort(int *arr,int size){int j;for(int i2;i<size;i){arr[0] arr[i];j i-1;while(arr[0]<arr[j]){arr[j1] arr[j];j--;}arr[j1]arr[0];} }int main() {int ar…...
2024/4/14 6:47:54 - 第一次go学习
第一次笔记:go语言入门 记录go的第一次学习 文章目录第一次笔记:go语言入门一、go语言是什么?二、使用步骤1.语法规范2:代码解释3:go语言相关知识总结一、go语言是什么? Go(又称Golang)是Googl…...
2024/4/17 1:35:04 - 直播带货
直播带货是一种新的商业模式,其目的是为了增加我们的销售额,让公司的营业额更高,然后实现利润倍增,在前几年还没有4G的时代,当时这种模式之所以没有兴起是因为流量的限制,体验也不到位,但自从大…...
2024/4/14 6:47:44 - C++三只小猪比较体重
刚学习C,记录一下所学习的知识。 比较体重大小判断,相同时又会怎么做。 #include<iostream> using namespace std;/*计算三只小猪谁的体重重 */ int main() {//三只小猪ABC//小猪Aint A 0;int B 0;int C 0;//输入三只小猪的体重cout <<…...
2024/4/19 16:11:11 - 【Registration of 3D Point Clouds with Low Overlap】
Registration of 3D Point Clouds with Low Overlap----S Huang - 2020 - ethz.chAbstract1.Introduction1.1. Objective of this Thesis1.2. Structure of this Thesis2.Related Work2.1 3D深度学习2.2 学习提取特征2.2.1 手动提取特征2.2.2 学习提取特征2.3.学习过滤外点2.3.…...
2024/4/14 6:47:59 - pom.xml文件变灰出现删除线
pom.xml文件变灰出现删除线 上面的都不要勾选...
2024/4/14 6:47:49 - Android 开发艺术探索笔记(4),android串口开发
一般来说多进程会造成下列问题: (1)静态成员和单例模式完全失效。 (2)线程同步机制完全失效。 已经不再同一个内存了,不管是锁对象还是锁全局类都不能保证线程同步,因为不同进程锁的不是同一…...
2024/4/9 0:53:28 - 高精度加减乘除算法模板题,详细易懂(C++实现)
1、高精度加法 输入格式 共两行,每行包含一个整数。 输出格式 共一行,包含所求的和。 数据范围 1≤整数长度≤100000 #include<bits/stdc.h> using namespace std;int main(){string sa, sb; cin >> sa >> sb;vector<int&…...
2024/4/14 6:47:54 - C++学习之路—面向对象—析构函数
C面向对象-析构函数的用法定义析构函数最主要的作用通过malloc分配的对象,在free释放时,不会调用析构函数通过new分配的对象,在delete释放时,会调用析构函数malloc和new的差异总结定义 析构函数也叫析构器,在对象销毁…...
2024/4/14 6:47:44 - 解决 Kubernetes 中 Kubelet 组件报 failed to get cgroup Failed to get system container stats 错误
Failed to get system container stats for “/system.slice/docker.service”: failed to get cgroup stats for “/system.slice/docker.service”: failed to get container info for “/system.slice/docker.service”: unknown container “/system.slice/docker.service”…...
2024/4/14 6:48:25
最新文章
- 前端用a标签实现静态资源文件(excel/word/pdf)下载
接上文实现的 前端实现将二进制文件流,并下载为excel文件后, 实际项目中一般都会有一个模版下载的功能,一般都由服务端提供一个下载接口,返回文件流或url地址,然后前端再处理成对应需要的类型的文件。 但是ÿ…...
2024/4/28 8:51:57 - 梯度消失和梯度爆炸的一些处理方法
在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言,在此感激不尽。 权重和梯度的更新公式如下: w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...
2024/3/20 10:50:27 - Go语言中如何实现继承
完整课程请点击以下链接 Go 语言项目开发实战_Go_实战_项目开发_孔令飞_Commit 规范_最佳实践_企业应用代码-极客时间 Go语言中没有传统意义上的类和继承的概念,但可以通过嵌入类型(embedded types)来实现类似的功能。嵌入类型允许一个结构…...
2024/4/23 6:14:42 - vue3项目运行正常但vscode红色波浪线报错
以下解决办法如不生效,可尝试 重启 vscode 一、Vetur插件检测问题 vetur 是一个 vscode 插件,用于为 .vue 单文件组件提供代码高亮以及语法支持。但 vue 以及 vetur 对于 ts 的支持,并不友好。 1、原因 如下图:鼠标放到红色波浪…...
2024/4/26 17:21:41 - 【外汇早评】美通胀数据走低,美元调整
原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...
2024/4/26 18:09:39 - 【原油贵金属周评】原油多头拥挤,价格调整
原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...
2024/4/28 3:28:32 - 【外汇周评】靓丽非农不及疲软通胀影响
原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...
2024/4/26 23:05:52 - 【原油贵金属早评】库存继续增加,油价收跌
原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...
2024/4/27 4:00:35 - 【外汇早评】日本央行会议纪要不改日元强势
原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...
2024/4/27 17:58:04 - 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响
原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...
2024/4/27 14:22:49 - 【外汇早评】美欲与伊朗重谈协议
原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...
2024/4/28 1:28:33 - 【原油贵金属早评】波动率飙升,市场情绪动荡
原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...
2024/4/27 9:01:45 - 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试
原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...
2024/4/27 17:59:30 - 【原油贵金属早评】市场情绪继续恶化,黄金上破
原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...
2024/4/25 18:39:16 - 【外汇早评】美伊僵持,风险情绪继续升温
原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...
2024/4/28 1:34:08 - 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势
原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...
2024/4/26 19:03:37 - 氧生福地 玩美北湖(上)——为时光守候两千年
原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...
2024/4/28 1:22:35 - 氧生福地 玩美北湖(中)——永春梯田里的美与鲜
原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...
2024/4/25 18:39:14 - 氧生福地 玩美北湖(下)——奔跑吧骚年!
原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...
2024/4/26 23:04:58 - 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!
原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...
2024/4/27 23:24:42 - 「发现」铁皮石斛仙草之神奇功效用于医用面膜
原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...
2024/4/28 5:48:52 - 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者
原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...
2024/4/26 19:46:12 - 广州械字号面膜生产厂家OEM/ODM4项须知!
原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...
2024/4/27 11:43:08 - 械字号医用眼膜缓解用眼过度到底有无作用?
原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...
2024/4/27 8:32:30 - 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...
解析如下:1、长按电脑电源键直至关机,然后再按一次电源健重启电脑,按F8健进入安全模式2、安全模式下进入Windows系统桌面后,按住“winR”打开运行窗口,输入“services.msc”打开服务设置3、在服务界面,选中…...
2022/11/19 21:17:18 - 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。
%读入6幅图像(每一幅图像的大小是564*564) f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...
2022/11/19 21:17:16 - 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...
win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面,在等待界面中我们需要等待操作结束才能关机,虽然这比较麻烦,但是对系统进行配置和升级…...
2022/11/19 21:17:15 - 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...
有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows,请勿关闭计算机”的提示,要过很久才能进入系统,有的用户甚至几个小时也无法进入,下面就教大家这个问题的解决方法。第一种方法:我们首先在左下角的“开始…...
2022/11/19 21:17:14 - win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...
置信有很多用户都跟小编一样遇到过这样的问题,电脑时发现开机屏幕显现“正在配置Windows Update,请勿关机”(如下图所示),而且还需求等大约5分钟才干进入系统。这是怎样回事呢?一切都是正常操作的,为什么开时机呈现“正…...
2022/11/19 21:17:13 - 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...
Win7系统开机启动时总是出现“配置Windows请勿关机”的提示,没过几秒后电脑自动重启,每次开机都这样无法进入系统,此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一:开机按下F8,在出现的Windows高级启动选…...
2022/11/19 21:17:12 - 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...
有不少windows10系统用户反映说碰到这样一个情况,就是电脑提示正在准备windows请勿关闭计算机,碰到这样的问题该怎么解决呢,现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法:1、2、依次…...
2022/11/19 21:17:11 - 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...
今天和大家分享一下win7系统重装了Win7旗舰版系统后,每次关机的时候桌面上都会显示一个“配置Windows Update的界面,提示请勿关闭计算机”,每次停留好几分钟才能正常关机,导致什么情况引起的呢?出现配置Windows Update…...
2022/11/19 21:17:10 - 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...
只能是等着,别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚,只能是考虑备份数据后重装系统了。解决来方案一:管理员运行cmd:net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...
2022/11/19 21:17:09 - 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?
原标题:电脑提示“配置Windows Update请勿关闭计算机”怎么办?win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢?一般的方…...
2022/11/19 21:17:08 - 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...
关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!关机提示 windows7 正在配…...
2022/11/19 21:17:05 - 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...
钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...
2022/11/19 21:17:05 - 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...
前几天班里有位学生电脑(windows 7系统)出问题了,具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面,长时间没反应,无法进入系统。这个问题原来帮其他同学也解决过,网上搜了不少资料&#x…...
2022/11/19 21:17:04 - 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...
本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法,并在最后教给你1种保护系统安全的好方法,一起来看看!电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中,添加了1个新功能在“磁…...
2022/11/19 21:17:03 - 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...
许多用户在长期不使用电脑的时候,开启电脑发现电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机。。.这要怎么办呢?下面小编就带着大家一起看看吧!如果能够正常进入系统,建议您暂时移…...
2022/11/19 21:17:02 - 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...
配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!配置windows update失败 还原更改 请勿关闭计算机&#x…...
2022/11/19 21:17:01 - 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...
不知道大家有没有遇到过这样的一个问题,就是我们的win7系统在关机的时候,总是喜欢显示“准备配置windows,请勿关机”这样的一个页面,没有什么大碍,但是如果一直等着的话就要两个小时甚至更久都关不了机,非常…...
2022/11/19 21:17:00 - 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...
当电脑出现正在准备配置windows请勿关闭计算机时,一般是您正对windows进行升级,但是这个要是长时间没有反应,我们不能再傻等下去了。可能是电脑出了别的问题了,来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...
2022/11/19 21:16:59 - 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...
我们使用电脑的过程中有时会遇到这种情况,当我们打开电脑之后,发现一直停留在一个界面:“配置Windows Update失败,还原更改请勿关闭计算机”,等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢࿰…...
2022/11/19 21:16:58 - 如何在iPhone上关闭“请勿打扰”
Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...
2022/11/19 21:16:57