发表评论取消回复
相关阅读
相关 GNN-图卷积模型-归纳式-2017:GraphSAGE【消息传递(前向传播):聚合+更新】【聚合函数:lstm/pool】【训练更新函数参数】【不全图卷积,每次采样一批节点来卷积训练】【同质图】
一、概述 ![在这里插入图片描述][watermark_type_ZHJvaWRzYW5zZmFsbGJhY2s_shadow_50_text_Q1NETiBA5b-N6
相关 GNN-图卷积模型-2015:GGNN【消息传递(前向传播):聚合函数+更新函数】【更新函数:GRU】【训练更新函数的参数】
![在这里插入图片描述][watermark_type_ZHJvaWRzYW5zZmFsbGJhY2s_shadow_50_text_Q1NETiBA5b-N6ICF44Gu5
相关 GNN-图卷积模型-2017:MPNN(消息传递神经网络)【消息传递(前向传播):聚合函数(消息传递)+更新函数(状态更新)】【图卷积模型统一框架】
《原始论文:Neural Message Passing for Quantum Chemistry》 ![在这里插入图片描述][watermark_type_ZHJvaWR
相关 GNN-图卷积模型-直推式&归纳式-2017:GAT【消息传递(前向传播):聚合函数+更新函数】【聚合函数:attention(邻域所有节点根据注意力机制进行加权)】【训练更新函数的参数】【同质图】
一、概述 Graph数据结构的两种特征: 当我们提到Graph或者网络的时候,通常是包含顶点和边的关系,那么我们的研究目标就聚焦在顶点之上。而除了结构之外,每个顶点还
相关 GNN-图卷积模型-直推式-2016:GCN【消息传递(前向传播):聚合函数+更新函数】【聚合函数:mean(邻域所有节点取平均值)】【训练更新函数的参数】【空域+频域】【同质图】
![在这里插入图片描述][watermark_type_ZHJvaWRzYW5zZmFsbGJhY2s_shadow_50_text_Q1NETiBA5b-N6ICF44Gu5
相关 GNN-图卷积模型-2019:GTN【Graph Transformer Networks】【异质图】
摘要:图神经网络在图的表示学习中得到了广泛的应用,在节点分类和链路预测等任务中取得了很高的性能。然而,大多数现有GNNs的设计目的是学习固定和齐次图上的节点表示。当学习指定错误
相关 卷积、一维卷积、二维卷积
![20191009191333910.png][][日萌社][Link 1] [人工智能AI:Keras PyTorch MXNet TensorFlow Paddle
相关 卷积原理:几种常用的卷积(标准卷积、深度卷积、组卷积、扩展卷积、反卷积)
0、标准卷积 默认你已经对卷积有一定的了解,此处不对标准卷积细讲。 举个例子,假设有一个`3×3`大小的卷积层,其输入通道为`16`、输出通道为`32`。 那么一般
相关 图卷积神经网络(GCN)
部分可参考博客 [https://blog.csdn.net/chensi1995/article/details/77232019][https_blog.csdn.net
相关 卷积原理:几种常用的卷积(标准卷积、深度卷积、组卷积、扩展卷积、反卷积)
转载自:[https://blog.csdn.net/chenyuping333/article/details/82531047?utm\_source=blogxgwz6]
还没有评论,来说两句吧...