图形是如此的神奇!审查与深度学习的整合
三个要点
✔️由于GNN的表达能力,应用正在迅速进展。
✔️对传统深度学习方法部署到GNN的灵活和复杂结构的回顾
✔️另一方面,在深度学习中也存在着一些常见的挑战,也是图形所固有的。
Graph Neural Networks: A Review of Methods and Applications
written by Jie Zhou, Ganqu Cui, Shengding Hu, Zhengyan Zhang, Cheng Yang, Zhiyuan Liu, Lifeng Wang, Changcheng Li, Maosong Sun
(Submitted on 20 Dec 2018 (v1), last revised 9 Apr 2021 (this version, v5))
Comments: Published on AI Open 2021
Subjects: Machine Learning (cs.LG); Artificial Intelligence (cs.AI); Machine Learning (stat.ML)
code:![]()
![]()
简介
你们中的许多人可能不熟悉 "图表 "一词。最近,我读了很多关于多变量时间序列的论文,我注意到图形发挥了重要作用。
图论本身是由欧拉首次提出的,用于解决单笔问题,如柯尼斯堡七桥,并被广泛应用于路线图、项目进度计划的PERT图、分子结构分析、语言学、四色问题和网络流量分析。在对《日经新闻》中介绍的假新闻进行分析时,重点关注了图表结构。假新闻是在右边。
日本经济新闻》文章: 假货曝光:破坏社交网络的错误信息的天堂
根据定义,图是一个由对象(节点)和它们之间的关系(边)表示的数据结构。
注: 可视化连接:图论简介
传统上,深度学习主要处理单个数据(向量)、排列在网格中的数据(图像)和顺序数据(文本、音频)的集合。纳入和发展图论是一个自然的进展。
例如,许多基于图形的GNN(图形神经网络)模型已经出现在多变量时间序列中。在许多其他领域,如社会科学、自然科学、知识图谱等,图谱形式的机器学习正获得越来越多的关注。在代表性方面,图1显示,一个CNN可以处理一个网格的局部数据,然后将几个CNN分层,得到 "猫 "的完整图像。另一方面,在图形中,欧氏距离是不相关的,与 "猫 "相关的数据点可以被合并,并作为一个数据集来处理。
另一个特点是表征学习。节点、边和子图可以用低维向量表示。在图分析领域,传统的机器学习方法依赖于手动设置特征值,而图嵌入方法可以学习:DeepWalk、Skipgram模型、node2vec、LINE、TADW是一些例子。然而,它们也有缺点:由于缺乏节点之间的参数共享,它们的效率很低,而且直接嵌入缺乏可推广性。从这个角度来看,各种GNN形式已经被提出,本文对其创新历史进行了回顾。请感受一下最近的趋势。
在我们进入正文之前,让我们看看用于数学处理图形的矩阵表示法。毗连矩阵A表示节点之间是否有连接。维度矩阵D告诉我们有多少条边与每个节点相连。拉普拉斯矩阵是这些的综合表示,L=D-A。归一化拉普拉斯矩阵实际上是用来归一化拉普拉斯矩阵的。虽然它看起来很复杂,但当你看一下实现的例子时,它却出奇的简单。
归一化拉普拉斯矩阵
维基百科: 拉普拉斯矩阵
本文件的结构如下
- 一般的GNN设计管道(程序
- 计算模块的具体化
- 图形类型和比例的变体
- 学习环境的变化
- 设计实例
- 理论和实证分析
- 主要应用
- 四个未解决的问题
许多形式将在3中提出。原文有25页,所以有点长,但请大家忍耐一下。
GNN 一般设计管道
让我们先从设计师的角度来看看。图用G=(V,E)表示,其中V是节点数,E是边的数量,A是邻接矩阵。这里,V的大小N是节点的数量,E的大小$N^e$是边的数量,A是邻接矩阵。为了学习图的表示,我们使用节点v的隐藏状态和输出向量$h_v, o_v$。表1显示了本文中使用的符号。
图形的结构
图的结构在应用中可以找到。通常有两种情况:结构性情况和非结构性情况。在前者中,应用的结构被明确地表示出来,例如分子结构、物理系统。在后者中,例如对于文字或图像,首先以完全耦合的方式创建模型,然后进行优化。
图形类型和比例
下一步是决定图表的类型和它的比例。一个具有复杂类型的图由于其节点和连接关系,可以包含更多的信息。
有方向和无方向的图形
在一个有向图中,每条边都有一个方向。无定向图中的边也可以被视为双向边。
同质图和异质图
在一个同质图中,所有的节点和边都是同一类型。
静态和动态图
如果一个图的输入特征值和图的连接性随着时间的推移而变化,那么这个图就被认为是动态的。
对规模没有明确的分类标准。如果邻接矩阵或图拉普拉斯不能存储在处理设备上,并且需要一些抽样技术,我们认为规模很大。
损失函数
损失函数由任务类型和学习设置决定。
节点级
注重节点。它包括节点分类、节点回归和节点聚类。
边缘水平
边缘分类有两种主要类型:边缘分类,对边缘类型进行分类;链接预测,预测两个给定节点之间是否存在边缘。
图表级别
有三种主要的图示类型:图示分类、回归和聚类。每种情况都需要一个模型来学习图的表示。
在监督数据方面,存在所有常见的机器学习类型。就监督数据而言,有所有常见的机器学习类型:"监督的"、"半监督的 "和 "非监督的"。在 "半监督 "学习中为训练准备了少量的有标签的节点和大量的无标签的节点。在测试阶段,过渡性设置需要一个模型来预测给定的未标记的节点的标签。另一方面,在归纳设置中,准备了一个新的未标记的节点并进行推断。最近,人们引入了一种混合的归纳-归纳方案。
计算模块
常用的计算模块是传播模块、采样模块和集合模块。结合起来,一个典型的GNN被设计成图2的中间部分。为了提高表现力,通常采用多层结构。有些模型并不符合这种一般的形式。
计算模块的具体化
根据图3的分类,各种GNN以计算模块的形式被引入。
传播模块 - 卷积
有两种方法可以概括卷积运算并将其应用于图:光谱方法和空间(静态)方法。
分光镜
进入光谱空间。傅里叶变换和反傅里叶变换的表示方法如下
$U$是归一化图拉普拉斯的特征向量矩阵。
卷积算子的定义如下
使用对角线矩阵$G_W$,光谱法的基本功能可以表示如下。该程序是一个傅里叶变换,过滤器$g_m$和反傅里叶变换。
使用各种$G_W$的典型光谱方法如下。
光谱网使用一个对角线矩阵$g_w = diag(w)$作为过滤器。它被认为是计算效率低下。
相比之下,ChebNet提出了$g_m$,这是一个以cos(x)为幂的Chebyshev多项式,在k度时被删减。
GCN(图卷积网络)通过对上述方程进行删减,进一步减少了过拟合问题,最高可达k=1。它可以进一步简化如下其中H是卷积矩阵,X是输入矩阵,W是一个参数。
AGCN(自适应图卷积网络)是一种试图学习隐性关系的方法,将残余图拉普拉斯加入到原始拉普拉斯中。它已被证明对分子和化学合成物是有效的。
双图卷积网络(DGCN)捕捉到了局部和全局的关系,使用GCN卷积网络和以下网络,其中邻接矩阵被正指向性互信息(PPMI)矩阵取代使用的是以下网络$A_p$是PPMI矩阵,$D_p$是相应的顺序矩阵。
GWNN(图小波神经网络)使用图小波变换$\psi _s$而不是图傅里叶变换。其优点是不需要矩阵分解就可以得到小波,图形小波是稀疏的和局部的,而且结果具有高度的解释力。
谱系方法有明确的理论基础,但存在滤波器取决于图结构的事实,不能应用于其他图结构。
基本空间方法
空间方法直接根据图的拓扑结构来定义卷积,在这种情况下是指连接形式。主要的挑战是如何为不同大小的邻居定义卷积算子并保留局部不变性。
神经系统FP对不同程度的节点使用不同的权重矩阵。它的缺点是大型图形难以处理。对化学物质的性能进行了评估。
DCNN(扩散卷积神经网络)通过一个过渡矩阵(或概率矩阵)来定义节点的相邻性它被用来对节点、图和边进行分类。它被用来对节点、图和边进行分类。
对于每个节点,PACHY-SAN提取并规范化正好是k个节点的邻域。它充当了通常卷积的接收场。
LGCN(可学习图卷积网络)是一个一维的GNN,通过提取top-k特征值与邻接矩阵的最大池化来计算隐藏层。
GraphSAGE是一个通用的归纳框架,从节点的本地邻居(聚合器)收集特征值。已经提出了三种类型的聚合器。提出了三种类型的聚合器:平均、LSTM和汇集。
注意基地
GAT(图注意网络)也被应用于多变量时间序列(MTAD-GAT)。它包含了相邻节点之间的关注和自我关注。还使用了多头关注。
GaAN(门控注意力网络)同样使用多头注意力,但与GAT不同,它允许改变每个注意力头的重要性。
空间方法的总体框架
该建议是将不同的模式整合到一个单一的框架中。
MoNet(混合模型网络)为在非欧几里得领域(如流形和图)设计卷积深度架构提供了一个框架。运算器是局部应用的,就像补丁一样。这种方法的新之处在于根据每个地方的特点选择不同的运营商。可以被表述为这个框架的实体的例子包括流形的GCNN (Geodesic GNN)和 AGNN(Anisotropic GNN),以及图形的GGN和 DGNN。下图显示了对FAUST人类数据集的比较。彩色的区域是错误发生的地方,底部的MoNet给出了最好的结果。
MPNN(消息传递神经网络)提取了几种经典方法的特性。该方法是为量子化学开发的,包括两个阶段:第一个阶段是信息传递,第二个阶段是读取。在信息传递阶段,从邻近节点收集信息,并通过更新函数更新隐藏变量。在读出阶段,使用读函数输出隐藏变量。通过改变每个功能的设置,可以实现不同的模式。
NLNN(非局部神经网络)概括并扩展了经典的非局部平均值。非局部平均法从所有时空点中计算出加权特征值,并将其作为隐藏变量。它可以被看作是自我关注的统一形式。该算子定义如下,并可根据f和g的选择采取不同的形式。
GN(图形网络)学习节点级、边缘级和图形级。它能够泛化许多转换。核心计算单元被称为GN-块,由三个更新函数$varphi$和三个聚合函数$rho$组成。
传播模块 - 递归
到目前为止,卷积层使用的是不同的权重,而递归层则共享相同的权重。
基于收敛的方法
GNN(Graph neural network)最初指的是这种技术。此后,它开始指代更广泛的图神经网络。为了避免混淆,我们在本文中用下划线的方式对这些方法进行区分。对于一个状态H,一个输出O,一个特征值X,以及一个节点特征值$X_N$,GNN的矩阵符号看起来像这样
渐近表达式如下
GNN的一个局限性是,它们要求F是一个收缩图,这限制了模型的性能。此外,由于信息含量低,使用固定点不适合于节点的表示。
GraphSEN(图形回声状态网络)是回声状态网络的一个概括,由于ESN的存储层的特性,它比GNN更有效,可以确保收敛性。
随机稳态嵌入(SSE)也试图提高GNN的效率,提出了一个两步的学习过程。更新步骤通过一个参数化算子更新每个节点的嵌入,映射步骤根据约束条件将其映射到稳态空间。
LP-GNN(拉格朗日传播GNN)将学习任务表述为拉格朗日框架下的约束性优化问题。这就避免了对固定点的重新计算。
基于门的方法
与一般的深度学习一样,LSTM和GRU等门控机制被应用于图。表2中总结了每种方法的计算结果。
GGNN(Gated graph neural network)试图摆脱GNN的约束,使用GRU,通过BPTT计算梯度。每个节点的隐藏状态$h_N_nu$收集了关于其邻居的信息。
树型LSTM有两个扩展,即Child-Sum树型LSTM和N-ary树型LSTM,它们对树型结构的每个孩子都有一个遗忘门。
图形LSTM是一个例子一个N-ary Tree-LSTM应用于图的例子。
S-LSTM(句子LSTM)将句子转化为图形,并学习使用图形LSTM来表示它们。
传播模块 - 跳过连接
对于图神经网络来说,目的是通过增加更深的层来提高表达能力,但这并不一定能提高性能,因为它增加了噪音并导致过度平滑的问题。这就是跳过连接发挥作用的地方,就像一般的深度学习一样。
高速公路GCN对每一层都使用一个高速公路门。
JKN(跳跃知识网络)自适应地选择连接到所有中间层到最终层中的每个节点的跳跃。
DeepGCN通过借鉴ResNet和DenseNet的思路,解决了梯度消失和过度平滑的问题。
采样模块
在每一层,聚集来自相邻节点的信息会导致 "邻居爆炸 "的问题,即随着各层的重叠,涉及的节点数量迅速增加。为了缓解这一问题,采用了抽样调查。
节点采样
GraphSAGE只对少量的邻居进行采样。
VR-GCN是一种基于控制变量的随机近似方法。它将接收场限制在一个单跳(1跳)的邻域。
PinSAGE提出了一种基于重要性的抽样。随机行走将相邻的节点限制在平均访问次数的前T位。
分层抽样
FastGCN直接对各层的感受区进行采样。
LADIES(LAyer-Dependent ImportancE Sampling)从节点的邻接中取样。
子图采样
ClusterGCN对图进行聚类,并对子图进行采样。
GraphSAINT直接对一个节点或边进行采样,形成一个子图。
集合模块
如同计算机视觉方法一样,汇集被应用于获得更普遍的特征值。
直接集资
简单节点汇集对每个节点的特征值进行最大、平均、总和和注意操作。
Set2set在MPNN的读出函数中被用来处理无序集,并使用基于LSTM的方法生成顺序不变性。
SortPooling根据节点的结构作用对节点嵌入进行排序,并将其发送到GNN。
分层汇集
图粗化是一种早期的方法,它使用节点聚类作为池化。
边缘条件卷积(ECC)执行递归下采样。它根据拉普拉斯的最大特征值的极性将图形分为两个部分。
DiffPool使用一个可学习的分层聚类模块,使用以下分配矩阵$S^t$粗化邻接矩阵。
gPool使用映射向量来学习每个节点的映射得分,并从得分最高的K中选择节点。
EigenPooling结合了节点特征值和局部结构。局部傅里叶变换被用来提取子图。
SAGPool(Self Attention Graph Pooling)也使用特征值和拓扑结构一起学习图的表示。它采用了一种基于自我注意的方法。
图形类型和比例的变换
根据图4,我们按图形类型和规模介绍各种GNN。
定向图
它比无定向图的信息量更大。例如,在一个知识图谱中,头实体是尾实体的父类。边缘的方向代表父子关系。可以对正向和反向的边缘分别进行建模。(DGP)
异质图
元路径基础
元路径是一种路由方案,它决定了路径上每个位置的节点的类型。在训练过程中,它被具体化为一个节点的序列。通过连接元路径两端的节点,我们可以计算出没有直接连接的两个节点之间的相似性。一个异质图可以被简化为若干个同质图。
HAN(异质图注意网络)将注意力应用于基于元路径的邻居,并将语义注意应用于所有元路径方案下的输出嵌入,以产生节点的最终表示。
MAGNN(元路径聚合图神经网络)考虑到了元路径的中间节点。在沿元路径汇总信息后,它将注意力沿相关元路径转移。
GTN(Graph Transformer Networks)提出了一种转换图形的方法。它在学习表示未连接的节点时定义了它们之间的连接。
边缘基地
HGT(Heterogeneous Graph Transformer)将元关系定义为两个相邻节点及其连接的一种类型。不同的元关系被赋予不同的注意权重矩阵。
HetGNN(异质图神经网络)处理不同类型的相邻节点,有不同的采样、特征值编码和聚合步骤。
关系图
G2S(Graph-to-Sequence)将原图转化为二边形图。然后应用GGNN和RNN将图形转化为一个句子。
R-GCN(关系图卷积网络)为不同类型的边的传播分配不同的权重矩阵。引入了两个约束条件来限制参数的数量。在基本分解中,$W_r=sum_{b=1}^B a_{rb} V_b$。在块对角线分解中,直接和被定义为$W_r$的低阶矩阵集。
多图
多维图卷积网络(mGCNs)为GNN的每一层引入了一个一般的表示和一个特定维度的表示。特定维度的表示是通过不同的映射矩阵从一般表示中映射出来的。然后,它们被聚合起来,形成下一层的一般代表。
动态图表
DCRNN(扩散卷积递归神经网络)、 STGCN(时空图卷积网络)首先收集GNN的空间信息,输出的是顺序数据。输出的是顺序数据。
结构性RNN, ST-GCN(Spatio-Temporal Graph Convolution),同时收集空间和时间信息,并将静态图结构扩展到时间连接。
DGNN(动态图卷积网络)将GCN的每个节点的内置输出给LSTM。
EvolveGCN 通过将GCN的权重输入RNN来捕捉真正的图互动。
其他图表类型
超图
在HGNN(超图神经网络)中,边与多个节点相结合,并有各自的权重。
极性图
SGCN(Signed Graph Convolutional Network)使用平衡理论来理解正负边缘之间的相互关系。直观地说,朋友的朋友就是朋友,敌人的敌人就是朋友。
大规模的图形
采样是大图的一种方法,但其他方法包括将多个GCN层打包成一个具有PageRank的传播层,或预先计算不同大小的卷积过滤器。
针对不同学习环境的转化
图形和自动编码器
GAE/VGAE首先用GCN对节点进行编码,然后用一个简单的编码器恢复相邻的节点,并计算出与原始相邻节点的差异作为误差。
ARGA(Adversarially Regularized Graph Auto-Encoder)/ARVGA是一个基于GCN的图形自动编码器,并应用GAN。
MGAE(边际化图自动编码器)是一个使用边际化去噪自动编码器的鲁棒性节点表示。
GALA使用拉普拉斯锐化(Laplacian sharpening),即拉普拉斯平滑的逆向,来解码隐藏状态。这种方法减少了GNN学习中的过度平滑问题。
AGE通过测量每对节点的相似度来执行自适应学习,因为修复损失与下游任务无关。
对比性学习
对比学习是无监督的图表示学习的另一个流向。
DGI(Deep Graph Informax)使节点和图形表示之间的相互信息最大化。
infograph通过最大限度地提高图形级表征和不同尺度的子结构表征(如节点、边和三角形)之间的相互信息来进行图形表征学习。
多视角对比,学会表示一阶邻接矩阵和图形扩散。
GNN设计实例
以GPT-GNN为例,GNN的设计过程可以描述如下
1.找到图形结构
我们专注于学术知识图谱和推荐系统的应用。在推荐系统中,用户、项目和评论被定义为节点,它们的关系被定义为边。
2.决定图表类型和比例
这项任务的重点是异质图。有了数以百万计的节点,我们将处理一个大型的异质图。
3.设计损失函数
由于所有的下游任务都是在节点层面,我们需要预先训练节点的表现。在预训练中,我们设计了没有标签数据的自我监督学习。在微调中,我们对每个任务的数据进行训练。
4.使用计算模块建立模型
传播模块是卷积算子HGT,采样模块是专门设计的HGTsampling,而池化模块没有使用,因为它学习了节点表示。
GNN分析
理论视角
图形化信号处理
从信号处理的角度来看,拉普拉斯有一个低通滤波器的效果。它反映了相似性假设,即假定附近的节点是相似的。
归纳
至于泛化性能,一些GNN的VC维度已经被证明;Garg等人根据神经网络的Rademacher极限给出了一个更严格的泛化极限;据说GNN的稳定性取决于最大特征值。注意力有助于GNNs对更大和更多噪音的图形的泛化。
表达能力
Xu等人表明,GCN,GraphSAGE的表达能力不如Weisfeiler-Leman测试,这是一种测试图同构映射的算法,而Barselo等人表明,GNN很难与FOC2兼容,这是一阶谓词逻辑的一个片段。关于学习图的拓扑结构,他们表明局部依赖的GNN形式不能学习全局图属性。
不变性
由于节点的无序性,GNN的输出嵌入是一个包络不变的,或者等同于输入特征值。
可转换性
由于参数化与图形没有联系,建议在图形之间进行转换以保证性能。
标签效率
对于GNN的(半)监督学习,需要有非常多的标记数据来满足性能。人们研究了提高标注效率的方法,通过选择高阶节点、不确定节点和其他信息丰富的节点,可以极大地提高标注效率。
一个经验性的观点
评价
请注意,数据分割的方式和设定的条件会改变排名,导致不适当的比较。
基准测试
对于图形学习来说,广泛接受的基准是很难得到的。大多数节点分类数据集只包含3,000到20,000个节点,这比现实世界的图要小。也没有统一的实验程序。然而,最近已经有了可靠的基准。
应用
结构方案
图形挖掘
图挖掘包括子图挖掘、图匹配、图分类和图聚类。对于图形匹配来说,计算的高度复杂性一直是一个挑战,但随着GNN的出现,现在可以使用神经网络来理解图形结构。最近一个图聚类的例子研究了一个好的聚类的特点,并提出了谱系模块化的优化,这是一个好的指标。
物理学
对一个物理系统的模拟需要一个学习该系统规律的模型。该系统可以简化为一个图,将对象建模为节点,将每对对象之间的相互关系建模为边。例子包括粒子模型、机器人:NRI将物体的轨迹作为输入,并推断出明确的相互关系图;Sanchez等人提出了一个图网络,对机器人的身体和关节进行编码。它与强化学习结合在一起。
化学、生物
在分子指纹分析中,Neural PPs和Kearnes等人分别使用GCN计算子结构特征向量和明确的原子对模型,以突出原子间的相互作用。
在化学反应预测中,图形转换策略网络对输入分子进行编码,节点对预测网络生成中间图。
蛋白质边界预测包括学习配体和受体蛋白质在GCN中的表示,对它们进行配对分类,并使用多分辨率方法预测局部和全局特征值。
在生物医学工程方面,蛋白质-蛋白质相互作用网络已经使用图卷积来对乳腺癌进行分类,Zitnik等人开发了一个基于GCN的模型来预测多种药物组合的副作用。
知识图谱
知识图谱(KG)是一个现实世界实体的集合,代表了实体对之间的关系;R-GCN提出了一个在消息传输步骤中专门用于关系的转换。结构感知卷积网络结合了一个GCN编码器和一个GNN解码器,以改善知识的代表性。Hamaguchi等人将GNNs应用于完成训练数据中未明确的实体的任务中的知识库(OOKB)问题(KBC)。
另一方面,Wang等人将GGNs应用于不同语言之间的知识图谱的对齐;OAG将图注意网络用于这一任务;Xu等人将这一问题替换为图匹配问题;Xu等人将这一问题替换为图匹配问题。
生成模型
生成模型在社会互动建模、新化学发现和知识图谱构建方面的兴趣越来越大:NetGAN通过随机行走生成图;GraphRNN通过逐步生成每个节点的邻接向量生成邻接矩阵。GraphAF将图的生成表述为一个连续的决策过程。
GCPNs(图形卷积策略网络)是基于强化学习的。
组合优化
组合优化是图论中的一个著名问题,如旅行推销员问题(TSP)和最小宽树。Gasse等人将组合问题的状态表示为双点图,并使用GCN进行编码;Sato等人进行了理论分析并建立了GNN和分布式局部算法之间的耦合。他们建立了GNN和分布式局部算法之间的耦合,并展示了如何通过优化的解决方案达到最佳的近似率。还提出了一些专门针对特定问题的模型。
运输网络
Cui等人结合GNN、LSTM来理解时间和空间的依赖性;STGCN使用ST-Conv块来进行空间-时间卷积。还有一种尝试是利用注意力。
推荐的系统
用户与商品的互动是用图来建模的:GC-MC是第一个模型;PinSage使用了双子图加权采样策略来降低计算的复杂性;GraphRec使用了SNS的信息;Wu等人的方法使用两个模型来模拟相似性和影响效应。Wu等人的方法。
其他结构性应用
在金融市场,它被用来模拟不同股票价格之间的关系,并预测未来。软件定义的网络用于路由,抽象意义代表用于文本生成。
非结构化的情景
图片
在Few(Zero)-shot图像分类中,GNN的方法是利用图中丰富的信息,首先是利用知识图,其次是利用图像之间的相似性。
图像推理的一个典型任务是视觉问题回答(VQA),Teney等人构建了一个图像场景图和一个问题语法图,并使用GGNN来预测答案。
对于语义分割,Liang等人通过构建基于区间的spar像素图形式的图,使用图LSTM来模拟长期依赖关系和空间联系。
文本
在句子分类中,图可以捕捉到非连续的、遥远的词语之间的意义。
序列标签法给观察到的变量序列贴上分类标签。如果我们把句子中的变量看作是节点,把依赖关系看作是边,我们就可以把这个问题作为GNN的一个隐藏状态来捕捉。
GNN在机器翻译中的使用是为了增加句法和语义信息。
在关系提取中,在一个句子图中,节点对应于单词,边可以与邻接关系、句法依赖关系和对话关系相适应。
事件提取从文本中提取事件。
事实调查过程中,提取证据来支持索赔。
未解决的问题
稳健性
作为神经网络的一个家族,GNN也容易受到对抗性攻击。对图结构的攻击和防御的研究已经开始。请看我们的综合评论。
可解释性
GNN也是一个非常黑的盒子,只有在说明性的基础上对模型进行一些解释。
研究前的图表
关于图表的初步研究才刚刚开始。他们也有不同的问题集和观点,仍然需要广泛的研究。
复杂的图结构
对于现实世界的应用来说,图正变得越来越灵活和复杂。这里已经介绍了动态和异质图,但还需要更强大的模型。
摘要
基于图的神经网络并不容易理解,但它们的研究和应用在过去几年里迅速增长,因为它们可以处理MLP、CNN等无法处理的非典型和复杂数据。这篇评论文章显示,大多数深度学习、CV、NLP和其他方法已经被部署在基于图形的系统中。
另一方面,仍然存在着深度学习的共同挑战和图形神经网络的特殊挑战,这些挑战值得进一步研究。本文介绍的主要GNN模型的源代码的链接可以在本文的附录中找到。图计算的框架也已经被开发出来,而且实现起来出奇的简单。
与本文相关的类别