William L. Hamilton∗,Rex Ying∗,Jure Leskovec
NIPS 2017

Abstract

Low-dimensional embeddings of nodes in large graphs have proved extremely useful in a variety of prediction tasks, from content recommendation to identifying protein functions. However, most existing approaches require that all nodes in the graph are present during training of the embeddings; these previous approaches are inherently transductive and do not naturally generalize to unseen nodes. Here we present GraphSAGE, a general inductive framework that leverages node feature information (e.g., text attributes) to efficiently generate node embeddings for previously unseen data. Instead of training individual embeddings for each node, we learn a function that generates embeddings by sampling and aggregating features from a node’s local neighborhood. Our algorithm outperforms strong baselines on three inductive node-classification benchmarks: we classify the category of unseen nodes in evolving information graphs based on citation and Reddit post data, and we show that our algorithm generalizes to completely unseen graphs using a multi-graph dataset of protein-protein interactions.

事实证明,在大型图中,节点的低维嵌入在从内容推荐到识别蛋白质功能的各种预测任务中极为有用。但是,大多数现有方法都要求在训练嵌入过程中存在图中的所有节点。这些先前的方法本质上是转导的(transductive),不能自然地推广到看不见的节点。在这里,我们介绍GraphSAGE,这是一个通用的 归纳(inductive) 框架,它利用节点特征信息(例如,文本属性)为先前未见的数据有效生成节点嵌入。我们将学习一个函数,该函数通过对节点局部(local)邻居的特征进行采样和聚合来生成嵌入,而不是为每个节点训练单独的嵌入。我们的算法在三个归纳(inductive)节点分类基准上均优于强基准:我们基于引文和 Reddit 发布数据在不断发展的信息图中将看不见的节点分类,并显示我们的算法使用蛋白质-蛋白质相互作用的多图数据集将其概括为完全看不见的图。

  • 现存的方法需要图中所有的顶点在训练embedding的时候都出现;这些前人的方法本质上是transductive,不能自然地泛化到未见过的顶点。
  • 本文提出了GraphSAGE,是一个 inductive 的框架,可以利用顶点特征信息(比如文本属性)来高效地为没有见过的顶点生成 embedding。
  • GraphSAGE是为了学习一种节点表示方法,即如何通过从一个顶点的局部邻居采样并聚合顶点特征,而不是为每个顶点训练单独的embedding。
  • 这个算法在三个inductive顶点分类benchmark上超越了那些很强的baseline。文中基于citation和Reddit帖子数据的信息图中对未见过的顶点分类,实验表明使用一个PPI(protein-protein interactions)多图数据集,算法可以泛化到完全未见过的图上。

0 GCN

在大型图中,节点的低维向量embedding被证明了作为各种各样的预测和图分析任务的特征输入是非常有用的。顶点embedding最基本的基本思想是使用降维技术从高维信息中提炼一个顶点的邻居信息,存到低维向量中。这些顶点嵌入之后会作为后续的机器学习系统的输入,解决像顶点分类、聚类、链接预测这样的问题。
GCN虽然能提取图中顶点的embedding,但是存在一些问题:(1)GCN的基本思想: 把一个节点在图中的高纬度邻接信息降维到一个低维的向量表示;(2)GCN的优点: 可以捕捉graph的全局信息,从而很好地表示node的特征;(3)GCN的缺点: Transductive learning的方式,需要把所有节点都参与训练才能得到 node embedding,无法快速得到新node的embedding。

  • transductive learning
    转导学习在训练模型的时候,其实已经遇见了训练集和测试集。为什么说GCN是转导学习呢?因为训练模型的时候需要将整个图输入,然后得到 node embedding .
  • inductive learning
    归纳学习在训练模型时仅会遇到训练数据,并将学习到的模型应用于从未见过的数据集上。

(1)归纳学习的重要性:前人的工作专注于从一个固定的图中对顶点进行表示,很多现实中的应用需要很快的对未见过的顶点或是全新的图(子图)生成embedding。这种推断的能力对于高吞吐的机器学习系统来说很重要,这些系统都运作在不断演化的图上,而且时刻都会遇到未见过的顶点(比如Reddit上的帖子(posts),Youtube上的用户或视频)。因此,一种inductive的学习方法比transductive的更重要;(2)转导学习的局限:要想得到新节点的表示,需要让新的graph或者subgraph去和已经优化好的node embedding去“对齐(align)”。然而每个节点的表示都是受到其他节点的影响,因此添加一个节点,意味着许许多多与之相关的节点的表示都应该调整。这会带来极大的计算开销,即使增加几个节点,也要完全重新训练所有的节点。

GraphSage的基本思想

直接学习一种节点的表示方法。去学习一个节点的信息是怎么通过其邻居节点的特征聚合而来的。 学习到了这样的“聚合函数”,而我们本身就已知各个节点的特征和邻居关系,我们就可以很方便地得到一个新节点的表示了。
GCN等 transductive 的方法,学到的是每个节点的一个唯一确定的 embedding; 而 GraphSAGE 方法学到的 node embedding,是根据 node 的邻居关系的变化而变化的,也就是说,即使是旧的node,如果建立了一些新的 link,那么其对应的 embedding 也会变化,而且也很方便地学到。
[PinSage] Graph Convolutional Neural Networks for Web-Scale Recommender Systems 论文详解KDD2018

1 Introduction

大图中节点的低维向量嵌入已被证明非常有用,可以作为各种预测和图分析任务的特征输入[5、11、28、35、36]。节点嵌入方法背后的基本思想是使用降维技术将有关节点邻域的高维信息提取为密集的矢量嵌入。然后,可以将这些节点嵌入提供给下游的机器学习系统,并帮助完成诸如节点分类,聚类和链接预测之类的任务[11、28、35]。
但是,以前的工作集中于从单个固定图嵌入节点,并且许多实际应用程序要求为看不见的节点或全新(子)图快速生成嵌入。这种归纳能力对于高吞吐量的生产机器学习系统至关重要,该系统在不断变化的图形上运行并不断遇到看不见的节点(例如Reddit上的帖子,Y outube上的用户和视频)。一种用于生成节点嵌入的归纳方法还可以促进具有相同特征形式的图的泛化:例如,可以在源自模型生物的蛋白质-蛋白质相互作用图上训练嵌入生成器,然后使用经过训练的模型轻松生成节点嵌入,以收集在新生物上收集的数据。
与转导模式相比,归纳式节点嵌入问题尤其困难,因为要泛化到看不见的节点,需要将新观察到的子图“对齐”到算法已经优化的节点嵌入。归纳框架必须学会识别节点邻域的结构属性,这些结构属性既可以显示节点在图中的局部角色,也​​可以显示其全局位置。
大多数现有的生成节点嵌入的方法本质上都是转导的。这些方法大多数都使用基于矩阵分解的目标直接优化了每个节点的嵌入,并且自然不会泛化为看不见的数据,因为它们在单个固定图上对节点进行了预测[5、11、23、28, 35、36、37、39]。可以修改这些方法以在归纳模式下运行(例如[28]),但是这些修改在计算上趋于昂贵,需要在进行新的预测之前进行额外的梯度下降回合。最近也有一些使用卷积算子学习图结构的方法,它们提供了作为嵌入方法的前景[17]。到目前为止,图卷积网络(GCN)仅在具有固定图的转导设置中应用[17,18]。在这项工作中,我们都将GCN扩展到归纳无监督学习的任务,并提出了一个框架,该框架将GCN方法推广为使用可训练的聚合函数(除了简单的卷积)。
Present work 我们提出了一个通用的框架,称为GraphSAGE(SAmple和aggreGatE),用于归纳节点嵌入。与基于矩阵分解的嵌入方法不同,我们利用节点特征(例如,文本属性,节点配置文件信息,节点度)来学习可泛化到看不见节点的嵌入特征。通过将节点特征整合到学习算法中,我们可以同时学习每个节点邻域的拓扑结构以及节点特征在邻域中的分布。尽管我们专注于特征丰富的图(例如具有文本属性的引文数据,具有功能/分子标记的生物学数据),但我们的方法还可以利用所有图形中存在的结构特征(例如节点度)。因此,我们的算法也可以应用于没有节点特征的图
我们没有训练每个节点的嵌入矢量,而是训练了一组聚合器函数,这些函数学习从节点的局部邻居中聚合特征信息(图1)每个聚合器函数都聚合来自给定节点的不同跳数或搜索深度的信息。在测试或推断时,我们使用受过训练的系统,通过应用学习到的聚合函数,为完全看不见的节点生成嵌入。在先前生成节点嵌入的工作之后,我们设计了一种无监督的损失函数,该函数允许对GraphSAGE进行训练而无需执行特定于任务的监督。我们还展示了可以完全监督的方式训练GraphSAGE。

我们在三个节点分类基准上评估了我们的算法,测试了GraphSAGE在看不见的数据上生成有用的嵌入的能力。我们使用两个基于引文数据和Reddit发布数据的演化文档图(分别预测论文和文章类别),以及基于蛋白质-蛋白质相互作用数据集(预测蛋白质功能)的多图概括实验。使用这些基准,我们证明了我们的方法能够有效地生成看不见的节点的表示形式,并且可以显著地胜过相关的基准:在整个域中,与仅使用节点特征相比,我们的监督方法可使分类F1分数平均提高51%,并且GraphSAGE始终优于强大的转导基线[28],尽管该基线在看不见的节点上运行需要花费约100倍的时间。我们还表明,与受图卷积网络启发的聚合器相比,我们提出的新聚合器体系结构可带来可观的收益(平均7.4%)[17]。最后,我们探究了我们方法的表达能力,并通过理论分析表明GraphSAGE能够学习关于节点在图中的角色的结构信息,尽管事实上它是基于特征的(第5节)。

2 Related work

我们的算法在概念上与先前的节点嵌入方法,用于学习图的常规监督方法以及将卷积神经网络应用于图结构数据的最新进展相关。

Factorization-based embedding approaches

一些node embedding方法使用随机游走的统计方法和基于矩阵分解学习目标学习低维的embeddings

Grarep: Learning graph representations with global structural information. In KDD, 2015
node2vec: Scalable feature learning for networks. In KDD, 2016
Deepwalk: Online learning of social representations. In KDD, 2014
Line: Large-scale information network embedding. In WWW, 2015
Structural deep network embedding. In KDD, 2016

Supervised learning over graphs

一些神经网络方法用于图结构上的监督学习,本文的方法在概念上受到了这些算法的启发

Discriminative embeddings of latent variable models for structured data. In ICML, 2016
A new model for learning in graph domains
Gated graph sequence neural networks. In ICLR, 2015
The graph neural network model

Graph convolutional networks

近年来,提出了几种用于图上学习的卷积神经网络结构

Spectral networks and locally connected networks on graphs. In ICLR, 2014
Convolutional neural networks on graphs with fast localized spectral filtering. In NIPS, 2016
Convolutional networks on graphs for learning molecular fingerprints. In NIPS,2015
Semi-supervised classification with graph convolutional networks. In ICLR, 2016
Learning convolutional neural networks for graphs. In ICML, 2016

GraphSAGE可以看作是对transductive的GCN框架对inductive下的扩展。

3 Proposed method: GraphSAGE

我们方法背后的关键思想是,我们学习如何从节点的局部邻域(例如,附近节点的度数或文本属性)中汇总要素信息。我们首先描述GraphSAGE嵌入生成(即前向传播)算法,该算法假设已经学习GraphSAGE模型参数,就会为节点生成嵌入(第3.1节)。然后,我们描述如何使用标准的随机梯度下降和反向传播技术来学习GraphSAGE模型参数(第3.2节)。

3.1 Embedding generation (i.e., forward propagation) algorithm

在本节中,我们描述了嵌入生成或前向传播算法(算法1),该算法假定模型已经过训练并且参数是固定的。尤其是,我们假设我们已经了解了 KK 个聚合函数的参数(表示为 AGGREGATEk,k1...KAGGREGATE_{k}, ∀k∈{1,...,K}),这些参数聚合了来自节点邻居的信息以及一组权重矩阵 Wk,k1...KW^k, ∀k∈{1,...,K},用于在模型的不同层或“搜索深度”之间传播信息。 3.2节介绍了我们如何训练这些参数。

算法1的直觉是,在每次迭代或搜索深度处,节点都会聚合来自其局部邻居的信息,并且随着此过程的反复进行,节点将从图的更远范围逐渐获取越来越多的信息。
算法1描述了在将整个图形 G=(VE)\mathcal {G =(V,E)} 并提供所有节点的特征 xvvV\mathbf x_v,∀v∈\mathcal V 作为输入的情况下的嵌入生成过程。我们将在下面介绍如何将其推广到 minibatch 模式。算法1外循环中的每个步骤如下进行,其中 kk 表示外循环中的当前步骤(或搜索的深度),并且 hkh^k 在此步骤中表示节点的表示形式:首先,每个节点 vVv∈\mathcal V 汇总表示形式将其相邻节点 huk1uN(v){\mathbf h^{k-1}_u,u∈\mathcal N(v)} 中的所有节点都放入单个向量 hN(v)k1\mathbf h^{k-1}_{N(v)}。注意,该聚合步骤取决于在外循环的先前迭代(即,k1k-1)处生成的表示,并且将 k0k = 0(“初始情况”)表示定义为输入节点特征。聚合相邻的特征向量后,然后,GraphSAGE 将节点的当前表示 hvk1\mathbf h^{k-1}_v 与聚合的邻域向量 hN(v)k1\mathbf h^{k-1}_{N(v)} 串联在一起,并将此串联的向量馈送给具有非线性激活函数 σσ 的完全连接层,它转换了算法下一步要使用的表示形式(即 hvkvV\mathbf h^k_v,∀v∈\mathcal V)。为了方便表示,我们将深度 KK 处的最终表示形式表示为 zvhvKvV\mathbf z_v≡\mathbf h^K_v,∀v∈\mathcal V。相邻表示的集合可以通过各种聚合器体系结构(在算法1中由 AGGREGATE 占位符表示)完成,我们将在下面的第3.3节中讨论不同的体系结构选择。
Relation to the Weisfeiler-Lehman Isomorphism Test. GraphSAGE 算法在概念上受到测试图同构性的经典算法的启发。如果在算法1中,我们(i)设置 K=VK = | V |,(ii)将权重矩阵设置为恒等,并且(iii)使用适当的哈希函数作为聚合器(没有非线性),则算法图1是Weisfeiler-Lehman(WL)同构测试的一个实例,也称为“朴素顶点细化” [32]。如果算法1为两个子图输出的表示集 {zvvV}\{\mathbf z_v,∀v∈\mathcal V\} 相同,则 WL 测试将两个子图声明为同构。已知该测试在某些情况下会失败,但对于广泛的图类型来说是有效的[32]。 GraphSAGE 是 WL 测试的连续近似,其中我们用可训练的神经网络聚合器替换了哈希函数。当然,我们使用GraphSAGE生成有用的节点表示,而不是测试图形同构。尽管如此,GraphSAGE 和经典的WL测试之间的联系为我们的算法设计提供了理论背景,以学习节点邻域的拓扑结构
Neighborhood definition. 在这项工作中,我们统一采样一组固定大小的邻居,而不是在算法1中使用完整邻域集,以使每个批次的计算足迹保持固定,即使用重载符号定义 N(v)N(v) 作为集合 {uV:(uv)E}\{u∈\mathcal V:(u,v)∈\mathcal E\} 的固定大小的均匀绘制,我们在算法1中的每次迭代 kk 上绘制了不同的均匀样本。单批次是不可预测的,最坏的情况是 O(V)O(| \mathcal V |)。相反,GraphSAGE的每个批处理空间和时间复杂度固定为 O(i=1KSi)O(\prod^K_{i = 1}S_i),其中 Sii1...KS_i,i∈{1,...,K}KK 是用户指定的常数。实际上,我们发现我们的方法可以在 K=2K = 2S1S2500S1·S2≤500 时实现高性能(有关详细信息,请参见第4.4节)。

  • 设需要的邻居数量,即采样数量为 SS,若顶点邻居数少于 SS, 则采用有放回的抽样方法,直到采样出 SS 个顶点。若顶点邻居数大于 SS,则采用无放回的抽样;
  • 采样的方式获得的信息是有损的;
  • 统一采样一个固定大小的邻域集,以保持每个batch的计算占用空间是固定的;
  • 固定size的采样,每个节点和采样后的邻居的个数都相同,可以把每个节点和它们的邻居拼成一个batch送到GPU中进行批训练;
  • 每一层的node的表示都是由上一层生成的,跟本层的其他节点无关,这也是一种基于层的采样方式;
  • 没有这种采样,单个batch的内存和预期运行时是不可预测的,在最坏的情况下 O(V)O(|\mathcal{V}|)
  • 实验发现,KK 不必取很大的值,当 K=2K=2 时,效果就很好了。至于邻居的个数,文中提到 S1S2500S_1 \cdot S_2 \leq 500,即两次扩展的邻居数之积小于500,大约每次只需要扩展 20 来个邻居时获得较高的性能;
  • 本文提到的固定长度的随机游走其实就是随机选择了固定数量的邻居。

3.2 Learning the parameters of GraphSAGE

为了在完全无监督的情况下学习有用的预测表示,我们将基于图的损失函数应用于输出表示 zuuV\mathbf z_u,∀u∈\mathcal V,并调整权重矩阵 Wkk1,...,KW^k,∀k∈{1, ..., K} 和聚合函数的参数通过随机梯度下降来实现。基于图的损失函数鼓励附近的节点具有相似的表示形式,同时强制要求不同节点的表示形式非常不同:
JG(zu)=log(σ(zuzv))QEvnPn(v)log(σ(zuzvn))(1)J_{\mathcal{G}}\left(\mathbf{z}_{u}\right)=-\log \left(\sigma\left(\mathbf{z}_{u}^{\top} \mathbf{z}_{v}\right)\right)-Q \cdot \mathbb{E}_{v_{n} \sim P_{n}(v)} \log \left(\sigma\left(-\mathbf{z}_{u}^{\top} \mathbf{z}_{v_{n}}\right)\right)\tag{1}

其中 vv 是在固定长度随机游动上在 uu 附近共同出现的一个节点,σσ 是 sigmoid 函数,PnP_n 是负采样分布,QQ 定义负采样的数量。重要的是,与以前的嵌入方法不同,我们提供给此损失函数的表示形式 zu\mathbf z_u 是从节点局部邻域内包含的要素生成的,而不是为每个节点训练唯一的嵌入(通过嵌入查找)。

  • 负采样分布指某种分布类型,一般采用均匀分布;
  • 负采样的数量 QQ 一般等于 /总的样本数/正样本数
  • embedding之间相似度通过向量点积计算得到。

此不受监督的设置模拟了将节点功能作为服务或静态存储库提供给下游机器学习应用程序的情况。如果仅在特定的下游任务上使用表示形式,则可以通过任务特定的目标(例如,交叉熵损失)简单地替换或增加无监督损失(等式1)。

3.3 Aggregator Architectures

与通过 N-D 格 lattices (例如句子,图像或 3-D volumes)进行机器学习不同,节点的邻居没有自然的顺序;因此,算法1中的聚合函数必须在无序向量集合上运行。理想情况下,聚合函数应该是对称的(即,对其输入的排列不变),同时仍可训练并保持较高的表示能力。聚合函数的对称性确保我们的神经网络模型可以被训练并应用于任意排序的节点邻域特征集。我们测试了三个候选聚合器函数:

Mean aggregator. 我们的第一个候选聚合函数是均值算子,在这里我们简单地取 huk1uN(v){h^{k-1}_u,∀u∈\mathcal N(v)} 中向量的元素均值。平均聚合器几乎等同于转导 GCN 框架中使用的卷积传播规则[17]。特别是,我们可以通过将算法1中的第4行和第5行替换为以下内容来得出 GCN 方法的归纳变量:
hvkσ(WMEAN({hvk1}{huk1,uN(v)})(2)\mathbf{h}_{v}^{k} \leftarrow \sigma\left(\mathbf{W} \cdot \operatorname{MEAN}\left(\left\{\mathbf{h}_{v}^{k-1}\right\} \cup\left\{\mathbf{h}_{u}^{k-1}, \forall u \in \mathcal{N}(v)\right\}\right)\right.\tag{2}

我们称其为修正的基于均值的聚集器卷积,因为它是局部频谱卷积的粗略线性近似[17]。该卷积聚合器与我们提出的其他聚合器之间的重要区别在于,它不执行算法1第5行中的级联(concatenation)操作-即,卷积聚合器确实将节点的前一层表示 hvk1h^{k-1}_v 与聚合的邻域矢量 hN(v)kh^k_{N(v)} 进行了级联。可以将这种级联(concatenation)看作是GraphSAGE算法的不同“搜索深度”或“层”之间的“跳跃连接( skip connection )” [13]的简单形式,它可以显著提高性能(第4节)。
LSTM aggregator. 我们还研究了基于LSTM架构的更复杂的聚合器[14]。与平均聚合器相比,LSTM具有更大的表达能力的优势。但是,必须注意,LSTM并不是天生对称的(即它们不是排列不变的(permutation invariant)),因为它们以顺序方式处理其输入。我们只需将LSTM应用于节点邻居的随机排列,即可使LSTM适应无序集合。

  • 排列不变性(permutation invariance):指输入的顺序改变不会影响输出的值。

Pooling aggregator. 我们研究的最终聚合器既对称又可训练。在这种合并方法中,每个邻居的向量都通过全连接(fully-connected )的神经网络独立地馈送;进行此转换之后,将逐元素最大池化操作(elementwise max-pooling operation)应用于跨邻居集的聚合信息:
 AGGREGATE kpool =max({σ(Wpool huik+b),uiN(v)})(3)\text { AGGREGATE }_{k}^{\text {pool }}=\max \left(\left\{\sigma\left(\mathbf{W}_{\text {pool }} \mathbf{h}_{u_{i}}^{k}+\mathbf{b}\right), \forall u_{i} \in \mathcal{N}(v)\right\}\right)\tag{3}

其中 maxmax 表示元素方式的 maxmax 运算符,而 σσ 是非线性激活函数。简言之,Pooling aggregator 先对目标顶点的邻居顶点的embedding向量进行一次非线性变换,之后进行一次pooling操作(max pooling or mean pooling),将得到结果与目标顶点的表示向量拼接,最后再经过一次非线性变换得到目标顶点的第 kk 层表示向量。
原则上,在最大池化之前应用的功能可以是任意深度的多层感知器,但是在此工作中,我们专注于简单的单层体系结构。这种方法的灵感来自于应用神经网络体系结构学习通用点集的最新进展[29]。直观地,可以将多层感知器视为一组函数,这些函数为邻居集中的每个节点表示计算特征。通过将最大池运算符应用于每个计算出的特征,模型可以有效地捕获邻域集的不同方面。还应注意,原则上,可以使用任何对称向量函数代替 maxmax 运算符(例如,按元素的均值)。在开发测试中,我们发现最大池化和平均池化之间没有显着差异,因此在其余的实验中,我们将重点放在最大池化上。

4 Experiments

我们在以下三个基准任务上测试了GraphSAGE的性能:(i)使用Web of Science引文数据集将学术论文分类为不同的主题,(ii)将Reddit帖子归为不同社区的成员,以及(iii)跨各种生物蛋白质-蛋白质相互作用(PPI)图对蛋白质功能进行分类。第4.1节和第4.2节概述了数据集,补充材料中包含其他信息。在所有这些实验中,我们对训练期间看不到的节点进行预测,对于PPI数据集,我们对完全看不见的图进行测试。
Experimental set-up. 为了将我们的归纳基准上的经验结果进行情境化,我们将与四个基准进行比较:随机分类器,基于逻辑回归特征的分类器(忽略图结构),作为代表因数分解方法的DeepWalk算法[28]以及 Raw features 和DeepWalk嵌入的串联。我们还比较了使用不同聚合函数的GraphSAGE的四个变体(第3.3节)。由于GraphSAGE的“卷积”变体是Kipf等人的半监督GCN的扩展,归纳版本[17],因此我们将其称为GraphSAGE-GCN。我们测试了根据等式(1)中的损失训练的GraphSAGE的无监督变体,以及对分类交叉熵损失进行了直接训练的有监督变体。对于所有的GraphSAGE变体,我们使用校正的线性单位作为非线性,并设置 K=2K = 2,邻域样本大小为 S1=25S1 = 25S2=10S2 = 10(有关灵敏度分析,请参见第4.4节)。
对于Reddit和引文数据集,我们按照Perozzi等人的描述对DeepWalk使用“在线”训练。 [28],我们进行了新一轮的SGD优化,以在进行预测之前嵌入新的测试节点(有关详细信息,请参见附录)。在多图设置中,我们无法应用DeepWalk,因为在不同的不相交图上运行 DeepWalk 算法生成的嵌入空间可以相对于彼此任意旋转(附录D)。
所有模型均在TensorFlow [1]中使用Adam优化器[16]实现(DeepWalk除外,DeepWalk在普通梯度下降优化器中表现更好)。我们设计实验的目的是(i)验证GraphSAGE相对于基线方法(即Raw features 和 DeepWalk)的改进,以及(ii)严格比较不同GraphSAGE聚合器体系结构。为了提供公平的比较,所有模型都共享其最小批量迭代器,损失函数和邻域采样器(如果适用)的相同实现。此外,为了防止在GraphSAGE聚合器之间进行比较时出现意外的“超参数骇客(hyperparameter hacking)”,我们对所有GraphSAGE变体进行了相同的超参数设置(根据验证集的性能为每个变体选择最佳设置)。在早期的验证测试中,使用引文和Reddit数据的子集确定了可能的超参数值,然后从分析中将其丢弃。附录包含更多实现细节。

4.1 Inductive learning on evolving graphs: Citation and Reddit data

我们的前两个实验是在不断发展的信息图中对节点进行分类,这一任务尤其与不断遇到未知数据的高通量生产系统有关。
表1的前四列概述了GraphSAGE的性能以及这两个数据集的基线方法。我们发现GraphSAGE的性能大大优于所有基线,并且与GCN方法相比,可训练的神经网络聚合器可提供明显的收益。例如,无监督变体GraphSAGE-pool在引用数据上的表现优于DeepWalk嵌入和原始特征的串联,分别为13.8%和Reddit数据的29.1%,而受监督版本则分别增加19.7%和37.2% 。有趣的是,尽管基于LSTM的聚合器是为顺序数据而不是无序集设计的,但它仍显示出出色的性能。最后,我们看到无监督的GraphSAGE的性能与完全受监督的版本具有相当的竞争力,这表明我们的框架无需特定于任务的微调就可以实现强大的性能。

4.2 Generalizing across graphs: Protein-protein interactions

现在,我们考虑跨图概括的任务,这需要了解节点角色而不是社区结构。我们根据蛋白质在基因本体中的细胞功能,将蛋白质的作用分类为各种蛋白质-蛋白质相互作用(PPI)图,每个图对应于不同的人体组织[41]。我们使用位置基因集,基序基因集和免疫学特征作为特征,并使用基因本体论集合作为标记(共121个),这些标记是从分子特征数据库中收集的[34]。平均图包含2373个节点,平均度为28.8。我们在20张图上训练所有算法,然后在两张测试图上平均预测F1分数(另外两张图用于验证)。
表1的最后两列总结了此数据的各种方法的准确性。再次,我们看到GraphSAGE明显优于基线方法,基于LSTM和基于池的聚合器比基于均值和GCN的聚合器具有可观的收益。

4.3 Runtime and parameter sensitivity

图2.A总结了不同方法的训练和测试运行时。这些方法的培训时间相当(GraphSAGE-LSTM最慢)。但是,需要采样新的随机游走并运行新的SGD轮来嵌入看不见的节点,这会使DeepWalk在测试时慢100-500倍。
对于GraphSAGE变体,我们发现,与K = 1相比,设置K = 2可使平均精度持续提高约10-15%。但是,将K增加到2以上会导致性能的边际回报(0-5%),同时将运行时间增加到令人难以置信的10-100倍,这取决于邻域样本大小。我们还发现,对大型社区进行采样的收益递减(图2.B)。因此,尽管子采样邻域引起较高的方差,但GraphSAGE仍然能够保持强大的预测准确性,同时显着改善运行时间。

4.4 Summary comparison between the different aggregator architectures

总体而言,我们发现,就平均性能和实验设置数量而言,基于LSTM和池的聚合器是表现最佳的方法(表1)。为了更定量地了解这些趋势,我们将六个不同的实验设置(即(3个数据集)×(无监督与有监督))视为试验,并考虑了哪些性能趋势可能会普遍存在。特别是,我们使用非参数Wilcoxon Signed-Rank检验[33]来量化各个试验中不同聚合器之间的差异,并在适用的情况下报告T统计量和p值。请注意,该方法是基于等级的,实质上测试了在新的实验环境中我们是否期望一种特定的方法优于另一种方法。鉴于我们只有6个不同设置的小样本量,此显着性检验的功能有些不足。尽管如此,T统计量和相关的p值是评估聚合器相对绩效的有用的量化指标。
我们看到,与基于GCN的方法相比,基于LSTM的,基于池的和基于均值的聚合器均提供了统计上显着的收益(所有这三种方法的T = 1.0,p = 0.02)。但是,与基于均值的聚合器相比,LSTM和合并方法的收益更为微不足道(T = 1.5,p = 0.03,将LSTM与平均值进行比较; T = 4.5,p = 0.10,将池与平均值进行比较)。 LSTM和合并方法之间没有显着差异(T = 10.0,p = 0.46)。但是,GraphSAGE-LSTM比GraphSAGE-pool慢得多(约2倍),这可能使基于池的聚合器总体上略有优势。

5 Theoretical analysis

6 Conclusion

我们引入了一种新颖的方法,可以有效地为看不见的节点生成嵌入。 GraphSAGE 始终优于最新的基准,通过对节点邻域进行采样有效地权衡了性能和运行时间,并且我们的理论分析提供了关于我们的方法如何学习局部图结构的见解。许多扩展和潜在的改进都是可能的,例如扩展 GraphSAGE 以合并有向图或多峰图。未来工作的一个特别有趣的方向是探索非均匀邻域采样函数,甚至可能作为GraphSAGE优化的一部分来学习这些函数。

本文所谓学习一个 “聚合器函数”,主要是学习聚合器的参数,如 W,bW,b ,待有新的节点需要预测时,直接用这个聚合函数即可。个人感觉,和GCN的区别是,GCN在预测节点时,需要将整个图训练一遍(即待预测的节点和原来的节点),捕获拓扑结构;而GraphSage则无需这样,只需要将新的节点输入到训练好的聚合器函数里即可实现预测。当然,GraphSage在一定程度上是一种有损的方法。

推荐阅读:
[论文笔记]:GraphSAGE:Inductive Representation Learning on Large Graphs 论文详解 NIPS 2017
GraphSAGE NIPS 2017 代码分析(Tensorflow版)
【Graph Neural Network】GraphSAGE: 算法原理,实现和应用
网络表示学习: 淘宝推荐系统&&GraphSAGE

查看全文
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

相关文章

  1. 微信小程序开发

    小程序开发准备: 1.申请小程序账号(appid) 2.下载并安装 微信开发者工具 进入微信公众平台官网->注册->小程序->申请 小程序的开发文档: 微信公众平台官网->账号分类栏->小程序->小程序开发文档 一定要保存好appid 前往下载小程序版本(根据电脑操作系统…...

    2024/4/27 13:32:38
  2. 概率统计之——数理统计与描述性分析

    一、数理统计概念 1.基本概念 定义:在数理统计中,称研究对象的全体为总体,通常用一个随机变量表示总体。组成总体的每个基本单元叫个体。从总体 XXX 中随机抽取一部分个体 X1,X2,...,XnX_1,X_2,...,X_nX1​,X2​,...,Xn​ ,称 X1,X2,...,XnX_1,X_2,...,X_nX1​,X2​,...,Xn​…...

    2024/4/25 0:07:05
  3. Harris特征点检测器-兴趣点检测

    http://blog.csdn.net/lwzkiller/article/details/54633670关于角点的应用在图像处理上比较广泛,如图像匹配(FPM特征点匹配)、相机标定等。网上也有很多博客对Harris角点检测原理进行描述,但基本上只是描述了算法流程,而其中相关细节并未作出解释,这里我想对有些地方做出补…...

    2024/4/28 1:49:31
  4. JAVA-内部类

    文章目录1. 内部类1.1 概述1.2 访问规则1.3 分类2. 成员内部类2.1 成员内部类的修饰符2.2 成员内部类的访问2.2.1 成员内部类不是静态的2.2.2 成员内部类是静态的2.3 成员内部类的应用面试题3. 局部内部类3.1 局部内部类的访问3.2 局部内部类访问局部变量的注意事项3. 匿名内部…...

    2024/4/30 12:52:51
  5. c编程连接mysql

    在实际应用中,我们不可能在命令行登录进数据库进行数据的查询、插入等操作,用户一般是使用一个界面良好的应用程序软件来对数据进行管理。为了方便应用程序的开发,MySQL提供了多种编程语言(C、perl、php等)的编程接口,供开发者使用。对于C语言来说,MySQL提供了C语言客户…...

    2024/4/25 0:07:03
  6. 感情之在路上

    英雄难过美人关​有的男人驰骋疆场,叱咤风云,可是一碰上女人,却瞬间被斩落马下,正所谓,英雄难过美人关;有的男人在政坛上进退自如,如日中天,可是却经不起花容月貌的女子奉上娇娇的媚脸;想想古代那些好色的皇帝和一些英雄豪杰,往往都难以拒绝国色天香的女子,以至于最…...

    2024/5/2 12:55:45
  7. centos强制重启后mysql启动失败

    由于强制重启后mysql的pid丢失导致启动失败。1.进入/etc/my.cnf.d文件查看pid的目录位置log-error=/var/log/mysqld.log pid-file=/var/run/mysqld/mysqld.pid上面的内容表示启动日志目录和pid目录,本次出现的问题就是pid丢失问题。2.进入/var/run目录下,创建mysqld目录mkdir…...

    2024/5/3 0:49:35
  8. SPFA - 香甜的黄油 Sweet Butter - 洛谷 P1828

    SPFA - 香甜的黄油 Sweet Butter - 洛谷 P1828 农夫John发现了做出全威斯康辛州最甜的黄油的方法:糖。 把糖放在一片牧场上,他知道 N 只奶牛会过来舔它,这样就能做出能卖好价钱的超甜黄油。 当然,他将付出额外的费用在奶牛上。 农夫John很狡猾,就像以前的巴甫洛夫,他知道…...

    2024/4/25 0:07:00
  9. CSS中的position中的static、absolute、relative、fixed、sticky

    static的取值有static、absolute、relative、fixed、sticky html中元素的默认position的值为static, static(html默认的定位方式) 会随着html的排版(flow)移动。static元素对top、left、right、bottom设定值不会生效 absolute(绝对定位) absolute元素不会随着html排版的…...

    2024/4/26 2:20:45
  10. Redis基本类型之字符串的操作命令

    前文中我们介绍了Redis中对于字符串类型的键值对进行诸如设置、获取、删除等操作的命令。在本文中,我们将继续介绍Redis中字符串类型的相关命令,主要为对该类型键值对值的操作。 STRLEN STRLEN命令被用于获取指定字符串类型键值对值的长度。当键值对不存在时将返回0,若键值对…...

    2024/4/28 2:33:20
  11. 国内云服务器哪家好?

    国内云服务器哪家好? 适合的才是最好的! 看到楼主的需求是中型公司放企业网站,既然是一个企业站,对各家云平台的对比更偏重于品牌、性能、价格、服务等方面,那么接下来就从这几个方面做个简单的分析: 1、品牌:2020年第一季度IDC给出的国内云计算平台排行前三的是阿里云、…...

    2024/4/25 0:06:56
  12. IO多路转接之select(使用select实现TCP服务器)

    select 函数原型 #include<sys/select.h> select(int nfds, fd_set *readfds, fd_set * writefds, fd_set *exceptfds, struct timeval *timeout);nfds代表最大文件描述符值+1 readfds、writefds、exceptfds分别代表可读、可写、异常事件集合 timeout代表等待时间timeout…...

    2024/4/25 0:06:55
  13. NLP task1

    Introduction and Word Vectors Human language and word meaningHow do we represent the meaning of a word? signifier(symbol)⇔signified(idea or thing) How do we have usable meaning in a computer? 一般用:Wordnet(包含同义词集和上位词的一个巨大词典) 对应在计…...

    2024/4/29 15:12:46
  14. 练习题26-快乐数

    编写一个算法来判断一个数 n 是不是快乐数。 「快乐数」定义为:对于一个正整数,每一次将该数替换为它每个位置上的数字的平方和,然后重复这个过程直到这个数变为 1,也可能是 无限循环 但始终变不到 1。如果 可以变为 1,那么这个数就是快乐数。 如果 n 是快乐数就返回 Tru…...

    2024/4/29 3:57:14
  15. Python数据分析入门书籍推荐

    在当下这个数据驱动的时代,毫不夸张的说各行各业的商业决策和运营管理都离不开数据分析,因此数据分析已经成为当前每个人的必备技能和加分项。对于许多初学者来讲,想要入门Python数据分析常常不知道从何下手。本文将为大家推荐一些适合零基础学习者阅读的Python数据分析入门…...

    2024/4/14 20:48:33
  16. Java.删数---(用集合ArrayList)

    题目描述有一个数组a[N]顺序存放0~N-1,要求每隔两个数删掉一个数,到末尾时循环至开头继续进行,求最后一个被删掉的数的原始下标位置。以8个数(N=7)为例:{0,1,2,3,4,5,6,7},0->1->2(删除)->3->4->5(删除)->6->7->0(删除),如此循环直到最后…...

    2024/4/25 3:38:24
  17. 剑指offer刷题————数组中出现次数超过一半的数字

    问题重述:题目:数组中有一个数字出现的次数超过数组长度的一般,请找出这个数字。不存在则返回0.例如输入一个长度为9的数组{1,2,3,2,2,2,5,4,2}。由于数字2在数组中出现了5次,超过数组长度的一半,因此输出2。思路解析:数组中有一个数字出现的次数超过了数组长度的…...

    2024/4/20 5:07:37
  18. 如何看待腾讯成立史上首个硬件实验室星星海,全面提速服务器自研?

    如何看待腾讯成立史上首个硬件实验室星星海,全面提速服务器自研? 我们先通过官方的介绍来认识一下星星海: **产生背景:**云计算应用规模持续扩大,产业互联网业务复杂场景对云计算软硬件技术协同、云原生技术能力要求随之提升。传统服务器逐渐表现出机型功能复杂、创新节奏…...

    2024/4/14 20:48:30
  19. JavaScript之键盘相关信息

    键盘相关信息 键盘事件(一般只给可以输入内容的元素绑定 或者 window绑定) 1、onkeydown (按下键盘键的时候触发) 2、onkeyup (松开键盘键的时候触发) 3、onkeypress (按下字符键的时候触发,不包括Ctrl和shift等)<input type="text" id="btn"&g…...

    2024/4/26 23:54:37
  20. 各位朋友,购买云服务器的带宽选择多少合适?

    各位朋友,购买云服务器的带宽选择多少合适? 我们先来看看楼主使用服务器的需求: 线上运营,图文类型,有抽奖类活动,日访问量最高2000人; 如果去掉有抽奖活动这一环节,日访问2千人,并发访问量基本在100以内,甚至更低, 使用mysql数据库的前提下,服务器2核4G足够使用,…...

    2024/4/27 1:22:25

最新文章

  1. 241 基于matlab的Dijkstra算法进行路径规划

    基于matlab的Dijkstra算法进行路径规划。可根据实际情况输入障碍物和起止点坐标信息&#xff1b; 输出避碰最短路径&#xff1b; 能够利用切线图算法对障碍物区域进行环境建模&#xff0c;设置障碍物的位置和区域。利用Dijkstra算法进行路径规划。程序已调通&#xff0c;可直接…...

    2024/5/3 9:20:21
  2. 梯度消失和梯度爆炸的一些处理方法

    在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言&#xff0c;在此感激不尽。 权重和梯度的更新公式如下&#xff1a; w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...

    2024/3/20 10:50:27
  3. ROS2高效学习第十章 -- ros2 高级组件之大型项目中的 launch 其二

    ros2 高级组件之大型项目中的 launch 1 前言和资料2 正文2.1 启动 turtlesim&#xff0c;生成一个 turtle &#xff0c;设置背景色2.2 使用 event handler 重写上节的样例2.3 turtle_tf_mimic_rviz_launch 样例 3 总结 1 前言和资料 早在ROS2高效学习第四章 – ros2 topic 编程…...

    2024/5/2 10:47:23
  4. 产品推荐 | 中科亿海微推出亿迅®A8000金融FPGA加速卡

    01、产品概述 亿迅A8000金融加速卡&#xff0c;是中科亿海微联合金融证券领域的战略合作伙伴北京睿智融科&#xff0c;将可编程逻辑芯片与金融行业深度结合&#xff0c;通过可编程逻辑芯片对交易行情加速解码&#xff0c;实现低至纳秒级的解码引擎&#xff0c;端到端的处理时延…...

    2024/5/2 2:35:23
  5. 【外汇早评】美通胀数据走低,美元调整

    原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...

    2024/5/1 17:30:59
  6. 【原油贵金属周评】原油多头拥挤,价格调整

    原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...

    2024/5/2 16:16:39
  7. 【外汇周评】靓丽非农不及疲软通胀影响

    原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...

    2024/4/29 2:29:43
  8. 【原油贵金属早评】库存继续增加,油价收跌

    原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...

    2024/5/2 9:28:15
  9. 【外汇早评】日本央行会议纪要不改日元强势

    原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...

    2024/4/27 17:58:04
  10. 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响

    原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...

    2024/4/27 14:22:49
  11. 【外汇早评】美欲与伊朗重谈协议

    原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...

    2024/4/28 1:28:33
  12. 【原油贵金属早评】波动率飙升,市场情绪动荡

    原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...

    2024/4/30 9:43:09
  13. 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试

    原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...

    2024/4/27 17:59:30
  14. 【原油贵金属早评】市场情绪继续恶化,黄金上破

    原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...

    2024/5/2 15:04:34
  15. 【外汇早评】美伊僵持,风险情绪继续升温

    原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...

    2024/4/28 1:34:08
  16. 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势

    原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...

    2024/4/26 19:03:37
  17. 氧生福地 玩美北湖(上)——为时光守候两千年

    原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...

    2024/4/29 20:46:55
  18. 氧生福地 玩美北湖(中)——永春梯田里的美与鲜

    原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...

    2024/4/30 22:21:04
  19. 氧生福地 玩美北湖(下)——奔跑吧骚年!

    原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...

    2024/5/1 4:32:01
  20. 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!

    原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...

    2024/4/27 23:24:42
  21. 「发现」铁皮石斛仙草之神奇功效用于医用面膜

    原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...

    2024/4/28 5:48:52
  22. 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者

    原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...

    2024/4/30 9:42:22
  23. 广州械字号面膜生产厂家OEM/ODM4项须知!

    原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...

    2024/5/2 9:07:46
  24. 械字号医用眼膜缓解用眼过度到底有无作用?

    原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...

    2024/4/30 9:42:49
  25. 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...

    解析如下&#xff1a;1、长按电脑电源键直至关机&#xff0c;然后再按一次电源健重启电脑&#xff0c;按F8健进入安全模式2、安全模式下进入Windows系统桌面后&#xff0c;按住“winR”打开运行窗口&#xff0c;输入“services.msc”打开服务设置3、在服务界面&#xff0c;选中…...

    2022/11/19 21:17:18
  26. 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。

    %读入6幅图像&#xff08;每一幅图像的大小是564*564&#xff09; f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...

    2022/11/19 21:17:16
  27. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...

    win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面&#xff0c;在等待界面中我们需要等待操作结束才能关机&#xff0c;虽然这比较麻烦&#xff0c;但是对系统进行配置和升级…...

    2022/11/19 21:17:15
  28. 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...

    有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows&#xff0c;请勿关闭计算机”的提示&#xff0c;要过很久才能进入系统&#xff0c;有的用户甚至几个小时也无法进入&#xff0c;下面就教大家这个问题的解决方法。第一种方法&#xff1a;我们首先在左下角的“开始…...

    2022/11/19 21:17:14
  29. win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...

    置信有很多用户都跟小编一样遇到过这样的问题&#xff0c;电脑时发现开机屏幕显现“正在配置Windows Update&#xff0c;请勿关机”(如下图所示)&#xff0c;而且还需求等大约5分钟才干进入系统。这是怎样回事呢&#xff1f;一切都是正常操作的&#xff0c;为什么开时机呈现“正…...

    2022/11/19 21:17:13
  30. 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...

    Win7系统开机启动时总是出现“配置Windows请勿关机”的提示&#xff0c;没过几秒后电脑自动重启&#xff0c;每次开机都这样无法进入系统&#xff0c;此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一&#xff1a;开机按下F8&#xff0c;在出现的Windows高级启动选…...

    2022/11/19 21:17:12
  31. 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...

    有不少windows10系统用户反映说碰到这样一个情况&#xff0c;就是电脑提示正在准备windows请勿关闭计算机&#xff0c;碰到这样的问题该怎么解决呢&#xff0c;现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法&#xff1a;1、2、依次…...

    2022/11/19 21:17:11
  32. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...

    今天和大家分享一下win7系统重装了Win7旗舰版系统后&#xff0c;每次关机的时候桌面上都会显示一个“配置Windows Update的界面&#xff0c;提示请勿关闭计算机”&#xff0c;每次停留好几分钟才能正常关机&#xff0c;导致什么情况引起的呢&#xff1f;出现配置Windows Update…...

    2022/11/19 21:17:10
  33. 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...

    只能是等着&#xff0c;别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚&#xff0c;只能是考虑备份数据后重装系统了。解决来方案一&#xff1a;管理员运行cmd&#xff1a;net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...

    2022/11/19 21:17:09
  34. 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?

    原标题&#xff1a;电脑提示“配置Windows Update请勿关闭计算机”怎么办&#xff1f;win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢&#xff1f;一般的方…...

    2022/11/19 21:17:08
  35. 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...

    关机提示 windows7 正在配置windows 请勿关闭计算机 &#xff0c;然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;关机提示 windows7 正在配…...

    2022/11/19 21:17:05
  36. 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...

    钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...

    2022/11/19 21:17:05
  37. 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...

    前几天班里有位学生电脑(windows 7系统)出问题了&#xff0c;具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面&#xff0c;长时间没反应&#xff0c;无法进入系统。这个问题原来帮其他同学也解决过&#xff0c;网上搜了不少资料&#x…...

    2022/11/19 21:17:04
  38. 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...

    本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法&#xff0c;并在最后教给你1种保护系统安全的好方法&#xff0c;一起来看看&#xff01;电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中&#xff0c;添加了1个新功能在“磁…...

    2022/11/19 21:17:03
  39. 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...

    许多用户在长期不使用电脑的时候&#xff0c;开启电脑发现电脑显示&#xff1a;配置windows更新失败&#xff0c;正在还原更改&#xff0c;请勿关闭计算机。。.这要怎么办呢&#xff1f;下面小编就带着大家一起看看吧&#xff01;如果能够正常进入系统&#xff0c;建议您暂时移…...

    2022/11/19 21:17:02
  40. 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...

    配置windows update失败 还原更改 请勿关闭计算机&#xff0c;电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;配置windows update失败 还原更改 请勿关闭计算机&#x…...

    2022/11/19 21:17:01
  41. 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...

    不知道大家有没有遇到过这样的一个问题&#xff0c;就是我们的win7系统在关机的时候&#xff0c;总是喜欢显示“准备配置windows&#xff0c;请勿关机”这样的一个页面&#xff0c;没有什么大碍&#xff0c;但是如果一直等着的话就要两个小时甚至更久都关不了机&#xff0c;非常…...

    2022/11/19 21:17:00
  42. 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...

    当电脑出现正在准备配置windows请勿关闭计算机时&#xff0c;一般是您正对windows进行升级&#xff0c;但是这个要是长时间没有反应&#xff0c;我们不能再傻等下去了。可能是电脑出了别的问题了&#xff0c;来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...

    2022/11/19 21:16:59
  43. 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...

    我们使用电脑的过程中有时会遇到这种情况&#xff0c;当我们打开电脑之后&#xff0c;发现一直停留在一个界面&#xff1a;“配置Windows Update失败&#xff0c;还原更改请勿关闭计算机”&#xff0c;等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢&#xff0…...

    2022/11/19 21:16:58
  44. 如何在iPhone上关闭“请勿打扰”

    Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...

    2022/11/19 21:16:57