framework7中文文档(framework7中文教程)

设为 “星标”,重磅干货,第一时间送达!

framework7中文文档(framework7中文教程)

一、图神经网络介绍

什么是图神经网络

图神经网络(Graph Neural Networks, GNNs)是基于图结构的深度学习方法,近期被广泛应用到各类图像、自然语言处理等任务上。图神经网络作为神经网络扩展,可以处理以图结构表示的数据格式。在图中,每个节点都由本身的特性以及其相邻的节点和关系所定义,网络通过递归地聚合和转换相邻节点的表示向量来计算节点的表示向量。

在GN framework下,一个图可以被定义为一个三元组

是图的一个全局表示,

代表图中

个节点的集合,

为节点i的表示,

表示图中

条边的集合,

为边的表示,

分别代表边的接收节点和发送节点。

每一个GN block包含三个更新函数

,以及三个聚合函数

上式中

其中

应用于图中每条边的更新,

应用于图中每个节点的更新,

则用来更新图的全局表示;

函数将输入的表示集合整合为一个表示,该函数设计为可以接收任意大小的集合输入,通常可以为加和、平均值或者最大值等不限输入个数的操作。

当一个GN block得到一个图

的输入时,计算通常从边到节点,再到全局进行。下图给出了一个GN block的更新过程。

图1 一个GN block的更新过程

一个GN block的计算可以被描述为如下几步:

1.

更新每一条边,输入参数为边表示

,接收和发送节点的表示

以及全局表示

,输出为更新过的边表示

2.

用来有同一个聚合接收节点的边的信息,对节点i得到所有入边及邻近节点信息整合

,用于下一步节点的更新;

3.

更新每一个节点,输入为上文中的

,节点表示

$以及全局表示

,输出为更新过的节点表示

4.

聚合图中所有边的信息得到边信息整合

5.

通过聚合图中所有节点信息得到节点的信息整合

6.

更新全局的表示,输入为边信息整合

,节点信息整合

,以及节点表示

,输出为更新过的全局表示

我们可以通过上述的更新步骤来套用目前的图神经网络算法,当然这里的步骤的顺序并不是严格固定的,比如可以先更新全局信息,再更新节点信息以及边的信息。

为什么要使用图神经网络

图神经网络有灵活的结构和更新方式,可以很好的表达一些数据本身的结构特性,除了一些自带图结构的数据集(如Cora,Citeseer等)以外,图神经网络目前也被应用在更多的任务上,比如文本摘要,文本分类和序列标注任务等,目前图神经网络以及其变种在很多任务上都取得了目前最好的结果。

比较常见的图神经网络算法主要有Graph Convolutional Network(GCN)和Graph Attention Network(GAT)等网络及其变种,在本文第三部分会给出基于图神经网络框架DGL的GCN以及GAT的代码及注解。

二、图神经网络库

相比于传统的基于邻接矩阵的图神经网络实现方法,目前完成度较好的图神经网络框架主要是基于PyTorch和MXNet的DGL (Deep Graph Library)和PyG (PyTorch Geometric)。笔者主要使用了DGL作为开发的框架,原因是各种网络模型的tutorial给的比较详尽,同时包括TreeLSTM这种经典模型也可以通过给定节点访问的顺序通过框架很轻松的实现,相比于不使用图网络框架的代码具有更强的可读性。

但是,实际上图神经网络框架只适用于图结构中的边和点是同一量级的情况,因为图神经网络框架的信息是通过图中的边来传递的,会将节点的表示复制多次。在这种情况下,反而不如使用邻接矩阵直接做矩阵乘法,因为使用邻接矩阵做矩阵乘法其实不会将节点信息复制多次,会对显存有极大的节省。

三、常见算法以及代码示例详解

GCN

GCN的计算公式如下:

上式中

表示网络的第l层,

代表非线性激活函数,

为该层的权重矩阵,

为单位矩阵,由于邻接矩阵是没有进行正则化的,所以论文中通过

使得结果中每一行的和都为1。

图2 在每一层图网络中,每个节点通过对邻近节点的信息聚合得到这层该节点的输出

相比于前文给出的GCN基于邻接矩阵的公式定义,GCN的公式可以被更简洁的定义为以下两步:

1)对于节点u,首先将节点邻居表示

聚合到一起,生成中间表示

2)将得到的中间表示

通过一层非线性神经网络层

下面为基于DGL的代码示例,在代码实现中,第一步通过DGL自带的message passing函数实现,第二步通过DGL的apply_nodes方法,将基于PyTorch中nn.Module的用户自定义函数加入实现:

1importdgl2importdgl.functionasfn3importtorchasth4importtorch.nnasnn5importtorch.nn.functionalasF6fromdglimportDGLGraph78gcn_msg=fn.copy_src(src=’h’,out=’m’)9gcn_reduce=fn.sum(msg=’m’,out=’h’)

接下来为apply_nodes定义更新节点的自定义函数,这里是一个线性变换加上一个非线性激活函数的网络层:

1classNodeApplyModule(nn.Module): 2def__init__(self,in_feats,out_feats,activation): 3super(NodeApplyModule,self).__init__() 4self.linear=nn.Linear(in_feats,out_feats) 5self.activation=activation 6 7defforward(self,node): 8h=self.linear(node.data[‘h’]) 9h=self.activation(h)10return{‘h’:h}

下面定义GCN模块,一层GCN首先通过update_all方法将节点信息通过边传递,然后通过apply_nodes得到新的节点表示:

1classGCN(nn.Module): 2def__init__(self,in_feats,out_feats,activation): 3super(GCN,self).__init__() 4self.apply_mod=NodeApplyModule(in_feats,out_feats,activation) 5 6defforward(self,g,feature): 7g.ndata[‘h’]=feature 8g.update_all(gcn_msg,gcn_reduce) 9g.apply_nodes(func=self.apply_mod)10returng.ndata.pop(‘h’)

整个网络模块的定义和Pytorch中的NN模型定义本质上相同,如下我们定义两个GCN网络层:

1classNet(nn.Module): 2def__init__(self,in_dim,hidden_dim,out_dim): 3super(Net,self).__init__() 4self.gcn1=GCN(in_dim,hidden_dim,F.relu) 5self.gcn2=GCN(hidden_dim,out_dim,F.relu) 6 7defforward(self,g,features): 8x=self.gcn1(g,features) 9x=self.gcn2(g,x)10returnx11net=Net()12print(net)

GAT

GAT和GCN的主要区别就在于邻近节点信息的聚合方式,GAT通过引入attention机制来替代GCN中的静态归一化卷积运算,下面给出使用l层网络输出来计算第 l 1 层网络输出

的公式:

在上式中,公式(1)为上一层节点表示

通过可学习的权重矩阵

做线性变换;公式(2)计算两个邻近节点的为未进行标准化的attention分数,这里首先将两个节点的表示相连,然后和一个可学习的权重向量

做点积,最后通过

函数。这种形式通常叫做additive attention,相比Transformer中的则是dot-product attention;公式(3)对每个与该节点有入边的节点的attention分数使用softmax函数作归一化操作;公式(4)与GCN类似,聚合邻近节点的表示,使用公式(3)得到的分数作为权值。具体的计算方式如下图所示:

图3 Graph Attention Networks计算attention分数以及更新节点表示

下面的基于DGL的代码逐一分解了上面的四个公式,公式(1)中的线性变换直接使用Pytorch中的torch.nn.Linear模块

1importtorch 2importtorch.nnasnn 3importtorch.nn.functionalasF 4 5classGATLayer(nn.Module): 6def__init__(self,g,in_dim,out_dim): 7super(GATLayer,self).__init__() 8self.g=g 9#equation(1)10self.fc=nn.Linear(in_dim,out_dim,bias=False)11#equation(2)12self.attn_fc=nn.Linear(2*out_dim,1,bias=False)131415defedge_attention(self,edges):16#edgeUDFforequation(2)17z2=torch.cat([edges.src[‘z’],edges.dst[‘z’]],dim=1)18a=self.attn_fc(z2)19return{‘e’:F.leaky_relu(a)}202122defmessage_func(self,edges):23#messageUDFforequation(3)&(4)24return{‘z’:edges.src[‘z’],’e’:edges.data[‘e’]}252627defreduce_func(self,nodes):28#reduceUDFforequation(3)&(4)29#equation(3)30alpha=F.softmax(nodes.mailbox[‘e’],dim=1)31#equation(4)32h=torch.sum(alpha*nodes.mailbox[‘z’],dim=1)33return{‘h’:h}343536defforward(self,h):37#equation(1)38z=self.fc(h)39self.g.ndata[‘z’]=z40#equation(2)41self.g.apply_edges(self.edge_attention)42#equation(3)&(4)43self.g.update_all(self.message_func,self.reduce_func)44returnself.g.ndata.pop(‘h’)

公式(2)中的

通过两个相邻节点i和j的表示计算,这里通过DGL的apply_edgesAPI来实现,参数是下面的自定义函数edge_attention:

1defedge_attention(self,edges):2#edgeUDFforequation(2)3z2=torch.cat([edges.src[‘z’],edges.dst[‘z’]],dim=1)4a=self.attn_fc(z2)5return{‘e’:F.leaky_relu(a)}

这里和可学习权重向量

的点积通过上面定义的线性变换函数attn_fc得到,这里apply_edge会将所有的边的数据放到一个tensor里,所以cat,attn_fc可以并行计算,这也是上文提到的如果边的数量比点的数量多一个量级,最好还是使用邻接矩阵的方式实现图网络的原因,因为会将点的信息复制多次。

对于公式(3)和公式(4),使用update_allAPI来实现所有节点的信息传递,message function会发送两部分信息:经过变换的表示

和每条边上尚未经过归一化的attention分数

,然后通过下面的reduce function,首先通过softmax对attention的分数作归一化操作(公式(3)),然后将节点的邻近节点的表示按照归一化之后的attention权重聚合起来得到新的表示(公式(4)):

1defreduce_func(self,nodes):2#reduceUDFforequation(3)&(4)3#equation(3)4alpha=F.softmax(nodes.mailbox[‘e’],dim=1)5#equation(4)6h=torch.sum(alpha*nodes.mailbox[‘z’],dim=1)7return{‘h’:h}

GAT同样使用了类似Transformer的Multi-head Attention,用来加强模型表达能力并且稳定学习过程。每一个attention head有自己独立的参数,可以通过两种方式合并它们的输出:

或者

上式中

1classMultiHeadGATLayer(nn.Module): 2def__init__(self,g,in_dim,out_dim,num_heads,merge=’cat’): 3super(MultiHeadGATLayer,self).__init__() 4self.heads=nn.ModuleList() 5foriinrange(num_heads): 6self.heads.append(GATLayer(g,in_dim,out_dim)) 7self.merge=merge 8 910defforward(self,h):11head_outs=[attn_head(h)forattn_headinself.heads]12ifself.merge==’cat’:13#concatontheoutputfeaturedimension(dim=1)14returntorch.cat(head_outs,dim=1)15else:16#mergeusingaverage17returntorch.mean(torch.stack(head_outs))

最后定义一个两层的GAT模型

1classGAT(nn.Module): 2def__init__(self,g,in_dim,hidden_dim,out_dim,num_heads): 3super(GAT,self).__init__() 4self.layer1=MultiHeadGATLayer(g,in_dim,hidden_dim,num_heads) 5#Beawarethattheinputdimensionishidden_dim*num_headssince 6#multipleheadoutputsareconcatenatedtogether.Also,only 7#oneattentionheadintheoutputlayer. 8self.layer2=MultiHeadGATLayer(g,hidden_dim*num_heads,out_dim,1) 91011defforward(self,h):12h=self.layer1(h)13h=F.elu(h)14h=self.layer2(h)15returnh

上面GAT和GCN的详细代码可以在DGL的Github(https://github.com/dmlc/dgl)上找到。

四、总结

五、参考资料

[1] https://docs.dgl.ai/

[2] T. N. Kipf and M. Welling. Semi-supervised classification with graph convolutional networks.In ICLR, 2016

[3] Battaglia, P. W., Hamrick, J. B., Bapst, V., SanchezGonzalez, A., Zambaldi, V., Malinowski, M., Tacchetti, A., Raposo, D., Santoro, A., Faulkner, R., et al. Relational inductive biases, deep learning, and graph networks. arXiv preprint arXiv:1806.01261, 2018.

[4] Zhou, J., Cui, G., Zhang, Z., Yang, C., Liu, Z., and Sun, M. Graph neural networks: A review of methods and applications. arXiv preprint arXiv:1812.08434, 2018.

重磅!机器学习算法与自然语言处理交流群已正式成立!

群内有大量资源,欢迎大家进群学习!

额外赠送福利资源!邱锡鹏深度学习与神经网络,pytorch官方中文教程,利用Python进行数据分析,机器学习学习笔记,pandas官方文档中文版,effective java(中文版)等20项福利资源

获取方式:进入群后点开群公告即可领取下载链接

注意:请大家添加时修改备注为 [学校/公司 姓名 方向]

例如 —— 哈工大 张三 对话系统。

号主,微商请自觉绕道。谢谢!

发表评论

登录后才能评论