《Graph Neural Networks: A Review of Methods and Applications》图网络综述 -- 解析笔记

相关推荐

  • 更多论文知识点总结与论文解析请戳 Github
  • 图网络研究交流QQ群:832405795
  • ? AI Power 高性价比云GPU租借/出租平台:图网络的计算需要高算力支持,现在注册并绑定(参考Github)即可获得高额算力,注册不涉及个人隐私信息,奖励可随时提现。详情请参考AI Power指南

概要

原文链接

Graph Neural Networks: A Review of Methods and Applications
作者:Jie Zhou∗, Ganqu Cui∗, Zhengyan Zhang∗, Cheng Yang, Zhiyuan Liu, Maosong Sun

内容概括

  • 对现有的图神经网络模型进行了详细的回顾。介绍了原始模型、它的变体和几个通用框架。研究了这一领域的各种模型,并在不同的模型中提供了一个统一的表示方法来实现不同的传播步骤。
  • 将应用场景分为结构化场景、非结构化场景和其他场景。
  • 提出了四个有待进一步研究的问题。

要点分析

图神经网络

图神经网络(GNNs)是一种连接主义模型,它通过图节点之间的消息传递(message passing)来捕获图的关系。与标准神经网络不同的是,图神经网络可以收集一个节点周围任意深度邻节点的信息。图神经网络可以处理图结构数据。

  • CNN 只能作用在规则的 Euclidean 数据上。

    CNN强在{局部连接,权值共享,多层抽象},怎么让GNN在图结构上拥有同样的属性?
    在这里插入图片描述

  • 使用图嵌入(Graph Embedding)把图改造成规则化数据,需要人工设计特征,计算复杂,效果也未必好。
    几种图嵌入方法:DeepWalk、LINE、SDNE)

生疏词汇

不理解词怎么流畅地阅读呢?来看看我的生疏词检测下吧?。

单词意义
molecularadj. [化学] 分子的;由分子组成的
fingerprintsn. [法][特医] 指纹(fingerprint的复数)
connectionistn. 联结主义
primitiveadj. 原始的,远古的;简单的,粗糙的
demonstrated演示
non-Euclideanadj. 非欧几里得的
interpretabilityn. 可解释性;解释能力
hinders阻碍
aggregatevt. 集合;聚集;合计
diffusionn. 扩散,传播;[光] 漫射
traversevt. 穿过;反对;详细研究;在…来回移动
invariantn. [数] 不变量;[计] 不变式
syntheticadj. 综合的;合成的,人造的
unifiedadj. 统一的;一致标准的
manifoldsn. 集合管;阀组(manifold的复数形式)
investigatev. 调查;研究
mechanismsn. 机制;[机] 机构(mechanism的复数);机械;[机] 机构学
quantumn. 量子论;额(特指定额、定量);美国昆腾公司(世界领先的硬盘生产商)
taxonomyn. 分类学;分类法
extensiveadj. 广泛的;大量的;广阔的
scenariosn. 情节;脚本;情景介绍(scenario的复数)
surveyn. 调查;测量;审视;纵览
unifiesvt. 统一;使相同,使一致
parametricadj. [数][物] 参数的;[数][物] 参量的
transitionn. 过渡;转变;[分子生物] 转换;变调
hyperbolicadj. 双曲线的;夸张的
contractionn. 收缩,紧缩;缩写式;害病
theoremn. [数] 定理;原理
iterativeadj. [数] 迭代的;重复的,反复的
hierarchicaladj. 分层的;等级体系的
informativeadj. 教育性的,有益的;情报的;见闻广博的
distinguishingadj. 有区别的
Heterogeneousadj. [化学] 多相的;异种的;[化学] 不均匀的;由不同成分形成的
inceptionn. 起初;获得学位
bipartiteadj. 双边的;由两部分构成的;一式两份的;双方的
diagonaln. 对角线;斜线
coefficientsn. [数] 系数(coefficient的复数形式)
non-spectraladj. 谱外的
eigendecomposition特征分解(数学术语)
eigenvectorsn. [数] 特征向量;本征矢量(eigenvector的复数形式)
Laplaciann. [数] 拉普拉斯算子(调和算子)
truncatedv. 缩短(truncate的过去分词);截去…的顶端
instabilitiesn. 不稳定(性);基础薄弱;不安定
insightsn. 洞察力;眼力;深刻见解(insight的复数)
perspectiven. 观点;远景;透视图
hopvt. 搭乘
derivedv. 得到;推断(derive的过去分词);由…而来
diminishvt. 使减少;使变小
unrollsvt. 展开,铺开;显示
utilizesvt. 利用
adaptivelyadv. 适应性地
mechanismn. 机制;原理,途径;进程;机械装置;技巧
incorporatevt. 包含,吸收;体现;把……合并
potentiallyadv. 可能地,潜在地
cardinalityn. 基数;集的势
Moreoveradv. 而且;此外
stabilizevt. 使稳固,使安定
variancen. 变异;变化;不一致;分歧;[数] 方差
vertexn. 顶点;[昆] 头顶;[天] 天顶
readoutn. 读出;读出器
instantiationsn. 实例化;[计] 例示
enforcedadj. 实施的;强制执行的
elementwise按元素
inductiveadj. [数] 归纳的;[电] 感应的;诱导的
emphasizevt. 强调,着重
leveragesn. 手段,影响力;杠杆作用;杠杆效率
polypharmacyn. 复方用药;多味药剂;过多给药
drugn. 药;毒品;麻醉药;滞销货
interactionn. 相互作用;[数] 交互作用
cross-lingualadj. 跨语言的
alignmentn. 队列,成直线;校准;结盟
correlationn. [数] 相关,关联;相互关系
syntacticadj. 句法的;语法的;依据造句法的
interpretableadj. 可说明的;可判断的;可翻译的
superpixel超像素
supernodes超节点
POS-tagging词性标注
linguisticadj. 语言的;语言学的
syntax-aware语法感知
predicate-argument论元
tailoredv. 裁制;调整使适应(tailor的过去式和过去分词)
exhaustiveadj. 详尽的;彻底的;消耗的
combinatorialadj. 组合的
attractvt. 吸引;引起
heuristicadj. 启发式的;探索的
tacklevt. 解决
theoreticallyadv. 理论地;理论上
Quadraticn. 二次方程式
intriguinglyadv. 有趣地;有魅力地
Scalabilityn. 可扩展性;可伸缩性;可量测性

笔记

符号表

在这里插入图片描述

要点记录

  • 卷积神经网络(CNN)是GNN起源的首要动机,CNN只能应用于常规的欧几里得数据上(例如2-D的图片、1-D的文本),这些形式的数据可以被看成是图的实例化。随着对GNN和CNN的深入分析,发现其有三个共同的特点:(1)局部连接(2)权值共享(3)多层网络。这对于GNN来说同样有重要的意义。(1)局部连接是图的最基本的表现形式。(2)权值共享可以减少网络的计算量。(3)多层结构可以让网络捕获不同的特征。然而,从CNN到GNN的转变还面临着另一个问题,难以定义局部卷积核和池化操作。
  • 图嵌入(DeepWalk、RandomWalk等)存在两个缺点:(1)图中节点之间不存在任何的参数共享,导致计算量与节点数量呈线性增长。(2)图嵌入技术缺乏泛化能力,导致不能处理动态图或推广至新的图。
  • 原始 GNN
    • 在图中,每个节点的定义是由该节点的特征和相关节点来共同表示的。GNN的目标是训练出一个state embedding函数hv,该函数包含了每个节点的领域信息。hv = f(xv,xco[v],hne[v],xne[v]) (1) hv是节点v的向量化表示,它可以被用来去预测该节点的输出ov(例如节点的标签)。f(*)被称为local transition function,它被所有的节点共享,并根据输入的领域信息来更新节点的状态。xv是节点v的特征表示,xco[v]是v节点上边的特征表示,hne[v]是该节点的状态,xne[v] 是节点v周围节点的特征表示。
    • ov = g(hv,xv) (2)g(*)被称为local output function,它是用来产生节点的输出的。
    • H = F(H,X) (3) O = G(H,XN) (4)H、O、X、XN为其推广形式,代表图中的所有对象的堆叠形式。
    • Banach的fixed point提出以后,GNN中state的迭代计算过程可以表示为:Ht+1 = F(Ht,X) (5)Ht代表H的第t次迭代的状态,H(0)代表其动态方程的初始状态。
    • 对于一个GNN网络来说,其训练过程就是学习出函数f(*)g(*),tv代表节点v的标签,GNN的优化过程为:在这里插入图片描述
    • Limitations:实验结果表明GNN对于结构化数据的建模十分有效,但仍然存在着诸多的不足。
      a. 对于不动点隐藏状态的更新是十分低效的。如果放松对不动点的假设,论文中提出一种多层GNN可以得到节点及其邻域的稳定表示。
      b. GNN在迭代的过程中用相同的参数,然而大多标准网络在不同的网络层数使用不同的参数,
      c. 在原始的GNN中存在着一些无法有效建模的边缘信息特征。例如,在知识图谱中边代表这关系类型,不同边缘的消息传递应该根据他们的类型有所不同。怎么样去学习边缘的隐藏状态也是一个重要的问题。
      d. 如果把重点放在节点的表示而不是图上,就不适合使用不动点,因为不动点上表示的分布会变得非常平滑,且每个节点的信息量也会减少。
  • 在模型中,信息的传播步骤和输出步骤是获得节点或者边隐含状态的关键步骤。不同变种的GNN的聚合函数(用来聚合图中所有点的邻域信息,产生一个全局性的输出)和节点状态更新函数如下图所示:在这里插入图片描述
    • Convolution:GCN将卷积操作应用到图结构的数据上,主要分为Spectral method 和 Spatial Method 两种方法。其目的都是对节点以及节点的邻近节点进行信息收集。
    • Gate:使用GRU或者是LSTM这种带有门控机制的网络,来增强信息在图结构中的长期的传播。
    • Attention:GAT是一种图注意网络,它将注意力机制融入到了图传播的步骤中。GAT计算每个节点的隐藏状态,通过将 “attention” 机制应用到邻近节点上。
    • Skip connection:研究发现更深的网络层数可以帮助网络在节点的邻域节点上获取到更多的信息。但通过实验也发现深层网络也会在网络传播中带来噪声信息,随着网络层数的加深,网络还会出现退化。基于图像领域的启发,residual network和highway network 这些skip 模型能够有效的处理这一问题。
      在这里插入图片描述
  • 图网络被广泛的应用于包括监督学习、半监督学习、无监督学习和强化学习等方向。论文中从三个不同的场景来分别阐述图网络的应用。(1)结构化场景:数据包含有很明确的关系结构,如物理系统、分子结构和知识图谱。(2)非结构化场景:数据不包含明确的关系结构,例如文本和图像等领域。(3)其他应用场景:例如生成式模型和组合优化模型。各个领域图网络的应用细节如下图所示:
    在这里插入图片描述
    在这里插入图片描述

参考


版权声明:本文为qq_34361099原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。