dgl.nn (PyTorch)
卷积层
CuGraph 卷积层
来自 Modeling Relational Data with Graph Convolutional Networks 的加速关系图卷积层,利用 cugraph-ops 中高度优化的聚合原语。 |
|
来自 Graph Attention Networks 的图注意力层,通过 cugraph-ops 加速稀疏聚合。 |
|
来自 Inductive Representation Learning on Large Graphs 的加速 GraphSAGE 层,利用 cugraph-ops 中高度优化的聚合原语 |
密集卷积层
全局池化层
对图中的节点应用求和池化。 |
|
对图中的节点应用平均池化。 |
|
对图中的节点应用最大值池化。 |
|
来自 An End-to-End Deep Learning Architecture for Graph Classification 的排序池化 |
|
计算原子的重要性权重并执行加权求和。 |
|
来自 Gated Graph Sequence Neural Networks 的全局注意力池化 |
|
来自 Order Matters: Sequence to sequence for sets 的 Set2Set 算子 |
|
来自 Set Transformer: A Framework for Attention-based Permutation-Invariant Neural Networks 的编码器模块 |
|
来自 Set Transformer: A Framework for Attention-based Permutation-Invariant Neural Networks 的解码器模块 |
用于链接预测和知识图谱补全的评分模块
节点表示对的预测器/评分函数 |
|
来自 Translating Embeddings for Modeling Multi-relational Data 的相似度度量 |
|
来自 Learning entity and relation embeddings for knowledge graph completion 的相似度度量 |
异构学习模块
用于计算异构图卷积的通用模块。 |
|
对异构输入应用线性变换。 |
|
创建一个异构嵌入表。 |
|
根据类型进行线性变换。 |
实用模块
用于堆叠图神经网络模块的顺序容器 |
|
来自 Modeling Relational Data with Graph Convolutional Networks 的基分解 |
|
将一个点集转换为图,或将具有相同点数的点集批次转换为这些图的批处理联合的层。 |
|
将一个点集转换为图,或将具有不同点数的点集批次转换为这些图的批处理联合的层。 |
|
将一个点集转换为具有给定距离内邻居的双向图的层。 |
|
来自 Representation Learning on Graphs with Jumping Knowledge Networks 的 Jumping Knowledge 聚合模块 |
|
用于存储节点嵌入的类。 |
|
来自 GNNExplainer: Generating Explanations for Graph Neural Networks 的 GNNExplainer 模型 |
|
来自 GNNExplainer: Generating Explanations for Graph Neural Networks 的 GNNExplainer 模型,适用于异构图 |
|
来自 On Explainability of Graph Neural Networks via Subgraph Explorations <https://arxiv.org/abs/2102.05152> 的 SubgraphX |
|
来自 On Explainability of Graph Neural Networks via Subgraph Explorations 的 SubgraphX,适用于异构图 |
|
来自 Parameterized Explainer for Graph Neural Network <https://arxiv.org/pdf/2011.04573> 的 PGExplainer |
|
来自 Parameterized Explainer for Graph Neural Network 的 PGExplainer,适用于异构图 |
|
来自 Learning from Labeled and Unlabeled Data with Label Propagation 的标签传播 |
网络嵌入模块
来自 DeepWalk: Online Learning of Social Representations 的 DeepWalk 模块 |
|
来自 metapath2vec: Scalable Representation Learning for Heterogeneous Networks 的 metapath2vec 模块 |
图 Transformer 实用模块
度编码器,如 Do Transformers Really Perform Bad for Graph Representation? 中介绍的 |
|
拉普拉斯位置编码器 (LPE),如 GraphGPS: General Powerful Scalable Graph Transformers 中介绍的 |
|
路径编码器,如 Do Transformers Really Perform Bad for Graph Representation? 的边缘编码中介绍的 |
|
空间编码器,如 Do Transformers Really Perform Bad for Graph Representation? 中介绍的 |
|
3D 空间编码器,如 One Transformer Can Understand Both 2D & 3D Molecular Data 中介绍的 |
|
带有图注意力偏差的密集多头注意力模块。 |
|
带有密集多头注意力的 Graphormer 层,如 Do Transformers Really Perform Bad for Graph Representation? 中介绍的 |
|
Edge-augmented Graph Transformer (EGT) 的 EGT 层,如 `Global Self-Attention as a Replacement for Graph Convolution Reference `<https://arxiv.org/pdf/2108.03348.pdf>`_ 中介绍的 |