感觉看blog很困惑,需要看严肃的paper才好
#friend/wdl 讨论的时候说,先看数学公式和推导,再看「儿童画」比较好,如果一上来就看儿童画会困惑,这是一个新的observation,套用到这个语境里,我们学习的顺序是

所以看这篇:[1901.00596] A Comprehensive Survey on Graph Neural Networks,有点老,但是应该能补齐基础概念

Background

受图卷积启发,ConvGNNs are divided into two main streams:

Graph neural networks vs. network embedding,两个相反的方法,一个手动构造图,一个通过embedding之间的相似度来表示关系

现在看来,后者比较popular,可以参考这篇回答,说的是推荐系统,但或许可以推广到大部分dl领域

Graph neural networks vs. graph kernel methods,略,老ml时代的法子

Categorization and Frameworks

ConvGNN with multilayer⬇️

ConvGNN with pooling⬇️

A GAE for network embedding⬇️

A STGNN for spatial-temporal graph forecasting ⬇️

任务

training方法

Recurrent Graph Neural Networks

略,老古董了

Convolutional Graph Neural Networks

分类:

focus Spatial-based ConvGNNs和后面

MPNN: outlines a general framework of spatial-based ConvGNNs,不同的U, M, R(readout,给下游任务用的) 函数可以组合成实际存在的一堆GNN
J. Gilmer, S. S. Schoenholz, P. F. Riley, O. Vinyals, and G. E. Dahl, “Neural message passing for quantum chemistry,” in Proc. of ICML, 2017, pp. 1263–1272.

hv(k)=Uk(hv(k1)feature,uN(v)Mk(hv(k1),hu(k1),xvue)feature),

然后hidden state提供给下游任务...

GIN

怎么理解,这个参数到底如何可学习,到底表示什么

image-20250830212958855.png

GraphSAGE

hi=σ(jNiαijWhj)

其中α是attention score,标注某个节点的重要性,计算方法是

eij=a([Whi||Whj]),jNi

然后对它leakyrelu+softmax,得到最终分数

αij=Softmax(LeakyRelu(eij))

有一堆后续工作:GAAN/GeniePath...

Mixture Model Network (MoNet) adopts a different approach to assign different weights to a node’s neighbors
坏了,这个idea似乎有人做过类似的,但比较老...翻新一下

施工分界线