发表评论取消回复
相关阅读
相关 GNN-静态表征-随机游走-2017:Metapath2vec【 步骤:①基于预定义“元路径”的有偏随机游走生成每个节点的训练序列,得到训练数据集;②套用Word2vec算法得到节点表示】【异质图】
![在这里插入图片描述][watermark_type_ZHJvaWRzYW5zZmFsbGJhY2s_shadow_50_text_Q1NETiBA5b-N6ICF44Gu5
相关 GNN-静态表征-相似度(一阶&二阶)-2016:SDNE【2个模型:一阶相似度(有监督) + 二阶相似度(无监督)-->两模型联合训练】【临接矩阵->自编码器->节点的向量表示】【同质图】
[《原始论文:Structural Deep Network Embedding》][Structural Deep Network Embedding] [《原始论文:S
相关 GNN-静态表征-相似度(一阶&二阶)-2015:LINE【2个模型:一阶相似度 + 二阶相似度->模型结果的直接拼接】【不基于“随机游走”和“Word2vec”】【别名采样法】【浅层模型、同质图】
![在这里插入图片描述][watermark_type_ZHJvaWRzYW5zZmFsbGJhY2s_shadow_50_text_Q1NETiBA5b-N6ICF44Gu5
相关 GNN-静态表征-随机游走-2016:Node2vec【 步骤:①有偏随机游走策略生成每个节点的训练序列(DFS&BFS),得到训练数据集;②套用Word2vec算法得到节点表示】【浅层模型、同质图】
![在这里插入图片描述][watermark_type_ZHJvaWRzYW5zZmFsbGJhY2s_shadow_50_text_Q1NETiBA5b-N6ICF44Gu5
相关 GNN-节点向量(Node Embedding)的表征学习-发展:随机游走/一阶&二阶相似度(静态表征)【直接学习出各个节点的向量表示】 -->图卷积(动态表征)【学习节点间聚合函数的参数】
静态表征 基于“随机游走”、“Word2vec”的:DeepWalk、Node2vec、Metapath2vec; 基于“一阶相似度”、“二阶相似度”的:LINE
相关 GNN-静态表征-随机游走-2014:DeepWalk【步骤:①随机游走策略生成每个节点的训练序列(DFS),得到训练数据集;②套用Word2vec算法得到节点表示】【捕获二阶相似度】【浅层、同质图】
一、概述 1、 2、DeepWalk、LINE、Node2vec对比 ![在这里插入图片描述][watermark_type_ZHJvaWRzYW5zZmFs
相关 图神经网络(GNN):综述【从图(Graph)到图卷积(Graph Convolution)】【各种图神经网络模型的目的就是学习到图中各个节点的Embedding表示】
本文试图沿着图神经网络的历史脉络,从最早基于不动点理论的图神经网络(Graph Neural Network, GNN)一步步讲到当前用得最火的图卷积神经网络(Graph Co
相关 XPS表征使用方法
找到有XPS图的文章,XPS分峰的核心是在于你首先要知道元素在什么位置,比如C 1s、O 1s、Fe 2p这些是在什么位置,可以根据XPS handbook去对应 对的时候注
相关 什么是表示学习(representation learning)表征学习 表达学习
机器学习算法的成功与否不仅仅取决于算法本身,也取决于数据的表示。数据的不同表示可能会导致有效信息的隐藏或是曝露,这也决定了算法是不是能直截了当地解决问题。表征学习的目的是对复杂
还没有评论,来说两句吧...