1. 引言

时序图神经网络(Temporal Graph Neural Networks, TGNN)是处理动态演化图的深度学习模型,在社交网络分析、交通预测、推荐系统、金融风控等领域有广泛应用。

1.1 动态图的类型

类型定义示例代表模型
离散时间动态图 (DTDG)快照序列 每日社交网络EvolveGCN, TGN
连续时间动态图 (CTDG)带时间戳的事件序列 金融交易流JODIE, TGN-Attn
加权时序图带权重的时序边通信网络STGCN, A3T-GCN

1.2 核心挑战

┌─────────────────────────────────────────────────────────────────────┐
│                       时序图神经网络核心挑战                           │
├─────────────────────────────────────────────────────────────────────┤
│                                                                     │
│  [挑战1] 时间依赖建模                                                 │
│     └─→ 边的时间顺序如何编码?                                         │
│     └─→ 长期依赖如何保持?                                            │
│                                                                     │
│  [挑战2] 计算效率                                                    │
│     └─→ 大规模动态图训练困难                                         │
│     └─→ 实时预测延迟                                                 │
│                                                                     │
│  [挑战3] 归纳学习                                                    │
│     └─→ transductive vs inductive设置                               │
│     └─→ 新节点如何处理?                                            │
│                                                                     │
│  [挑战4] 连续预测                                                    │
│     └─→ 高频实时预测需求                                             │
│     └─→ 现有方法计算开销过大                                         │
│                                                                     │
└─────────────────────────────────────────────────────────────────────┘

2. 2025年核心进展概览

2.1 主要论文汇总

论文会议核心贡献类型
CODENICLR 2026连续时间预测高效TGNN新架构
TETGNIJCKG 2025轨迹编码平衡transductive/inductive新架构
TIDFormerKDD 2025时间交互动态Transformer新架构
REINC-可扩展分布式训练系统系统优化
DyGC-动态图压缩(96%性能保留)数据压缩
LDTGNLoG 2025模块化解耦设计架构优化
TGM-模块化统一库系统工具

2.2 技术演进路线

┌─────────────────────────────────────────────────────────────────────────┐
│                    Temporal GNN 技术演进路线                              │
├─────────────────────────────────────────────────────────────────────────┤
│                                                                         │
│  [早期] 静态GNN扩展                                                     │
│    └─→ 添加时间维度 (Time Encoding)                                     │
│    └─→ 快照序列处理                                                     │
│    └─→ 代表: EvolveGCN, STGCN                                           │
│                                                                         │
│  [中期] 记忆增强架构                                                    │
│    └─→ TGN (Memory Module)                                             │
│    └─→ 消息传递 + 时序聚合                                              │
│    └─→ 代表: JODIE, TGN, DyGFormer                                      │
│                                                                         │
│  [当前] 2025年最新进展                                                 │
│    ┌───────────────────────────────────────────────────────────────┐   │
│    │                                                               │   │
│    │  ① 连续预测优化 ──→ CODEN (效率+效果双优化)                    │   │
│    │  ② Transductive/Inductive统一 ──→ TETGN (轨迹编码)            │   │
│    │  ③ Transformer融合 ──→ TIDFormer (可解释SAM)                  │   │
│    │  ④ 可扩展训练 ──→ REINC (分布式) / DyGC (压缩)                 │   │
│    │  ⑤ 模块化解耦 ──→ LDTGN / TGM (统一框架)                      │   │
│    │                                                               │   │
│    └───────────────────────────────────────────────────────────────┘   │
│                                                                         │
└─────────────────────────────────────────────────────────────────────────┘

3. CODEN:连续时间预测模型

3.1 问题背景

核心问题:现有TGNN主要针对给定时间跨度的一次性预测,而许多应用需要连续预测——频繁地随时间发布预测。

场景需求
金融风控毫秒级实时欺诈检测
网络入侵检测持续监控与预警
交通预测实时路况更新
推荐系统动态用户画像更新

3.2 CODEN架构

论文CODEN: Efficient Temporal Graph Neural Networks for Continuous Prediction

┌─────────────────────────────────────────────────────────────────────┐
│                         CODEN 架构                                   │
├─────────────────────────────────────────────────────────────────────┤
│                                                                     │
│  连续预测场景:                                                      │
│  ┌─────────────────────────────────────────────────────────────┐   │
│  │                                                             │   │
│  │   t₀        t₁        t₂        t₃        t₄   →  时间        │   │
│  │    │         │         │         │         │               │   │
│  │    ▼         ▼         ▼         ▼         ▼               │   │
│  │   [事件]   [事件]   [事件]   [事件]   [事件]                 │   │
│  │    │         │         │         │         │               │   │
│  │    └─────────┴─────────┴─────────┴─────────┘               │   │
│  │                      │                                       │   │
│  │                      ▼                                       │   │
│  │              ┌─────────────┐                                 │   │
│  │              │ CODEN 模型   │                                 │   │
│  │              └──────┬──────┘                                 │   │
│  │                     │                                        │   │
│  │         ┌───────────┼───────────┐                            │   │
│  │         ▼           ▼           ▼                            │   │
│  │    [预测₁]     [预测₂]     [预测₃]     ... (高频输出)         │   │
│  │                                                             │   │
│  └─────────────────────────────────────────────────────────────┘   │
│                                                                     │
│  核心创新:                                                          │
│  ┌─────────────────────────────────────────────────────────────┐   │
│  │  1. 高效时间编码 ──→ O(1) per event vs O(T) for TGN         │   │
│  │  2. 增量状态更新 ──→ 无需重算历史                            │   │
│  │  3. 自适应预测 ──→ 根据事件动态调整预测频率                   │   │
│  └─────────────────────────────────────────────────────────────┘   │
│                                                                     │
└─────────────────────────────────────────────────────────────────────┘

3.3 核心创新

创新点说明优势
高效时间编码 per event时间复杂度支持高频预测
增量状态更新仅更新受影响的节点状态降低计算开销
连续预测机制自适应预测频率平衡精度与效率

4. TETGN:轨迹编码时序图网络

4.1 问题背景

核心问题:现有TGN在transductiveinductive设置之间存在权衡困境:

设置特点问题
Transductive预测已知节点间链接无法泛化到新节点
Inductive泛化到未见节点对已知节点预测精度低

4.2 TETGN架构

论文Trajectory Encoding Temporal Graph Networks

┌─────────────────────────────────────────────────────────────────────┐
│                         TETGN 架构                                   │
├─────────────────────────────────────────────────────────────────────┤
│                                                                     │
│  输入:(i, j, tₖ) 时序交互事件                                       │
│                                                                     │
│  ┌─────────────────────────────────────────────────────────────┐   │
│  │                    轨迹消息编码器 (TE Module)                │   │
│  │                                                             │   │
│  │   TE(x₀, x) ──→ 时序位置特征                                 │   │
│  │                                                             │   │
│  │   性质:TE(TE(x₀, x), y) = TE(x₀, x + y)                   │   │
│  │   含义:轨迹编码满足可组合性                                   │   │
│  │                                                             │   │
│  └─────────────────────────────────────────────────────────────┘   │
│                              │                                      │
│                              ▼                                      │
│  ┌─────────────────────────────────────────────────────────────┐   │
│  │                    可学习节点ID                              │   │
│  │                                                             │   │
│  │   ┌─────────────────────────────────────────────────────┐   │   │
│  │   │  Initial ID ──→ MLP ──→ 可扩展节点标识符              │   │   │
│  │   │              (自动适应节点数)                          │   │   │
│  │   └─────────────────────────────────────────────────────┘   │   │
│  │                                                             │   │
│  │   作用:区分不同节点,同时支持新节点                         │   │
│  └─────────────────────────────────────────────────────────────┘   │
│                              │                                      │
│                              ▼                                      │
│  ┌─────────────────────────────────────────────────────────────┐   │
│  │                    TGN消息计算模块                           │   │
│  │                                                             │   │
│  │   m_{u→v}^{t} = MLP( h_u^{t-}, h_v^{t-}, Δt, TE(u), TE(v) )│   │
│  │                                                             │   │
│  └─────────────────────────────────────────────────────────────┘   │
│                              │                                      │
│                              ▼                                      │
│  ┌─────────────────────────────────────────────────────────────┐   │
│  │                    多头注意力融合                            │   │
│  │                                                             │   │
│  │   融合来源:TE模块输出 + TGN消息 + 节点特征                   │   │
│  │   注意力头:4头 / 8头 (可配置)                                │   │
│  └─────────────────────────────────────────────────────────────┘   │
│                              │                                      │
│                              ▼                                      │
│                      最终节点嵌入 h_v^t                               │
│                                                                     │
└─────────────────────────────────────────────────────────────────────┘

4.3 核心创新

创新点说明解决的问题
可学习节点IDMLP从初始ID生成时序位置特征匿名TGN无法区分节点
轨迹消息编码满足可组合性的时序编码捕获历史轨迹上下文
双流设计节点特征流 + 轨迹特征流平衡表达力与效率

5. TIDFormer:时间交互动态Transformer

5.1 问题背景

核心问题:现有基于Transformer的动态图模型存在可解释性不足效率问题

5.2 TIDFormer架构

论文TIDFormer: Exploiting Temporal and Interactive Dynamics Makes A Great Dynamic Graph Transformer

会议:KDD 2025

┌─────────────────────────────────────────────────────────────────────┐
│                        TIDFormer 架构                                │
├─────────────────────────────────────────────────────────────────────┤
│                                                                     │
│  三种编码模块:                                                      │
│                                                                     │
│  ┌─────────────────────────────────────────────────────────────┐   │
│  │  MTE: 混合粒度时间编码 (Mixed-granularity Temporal Encoding) │   │
│  │                                                             │   │
│  │   t ──→ [年][月][日][时][分] ──→ 多尺度时间特征              │   │
│  │                                                             │   │
│  │   利用日历结构建模周期性特征                                   │   │
│  └─────────────────────────────────────────────────────────────┘   │
│                              │                                      │
│                              ▼                                      │
│  ┌─────────────────────────────────────────────────────────────┐   │
│  │  BIE: 双向交互编码 (Bidirectional Interactive Encoding)     │   │
│  │                                                             │   │
│  │   二分图:Source → Target                                    │   │
│  │   非二分图:双向注意力                                        │   │
│  │                                                             │   │
│  │   仅采样一阶邻居,显著降低复杂度                               │   │
│  └─────────────────────────────────────────────────────────────┘   │
│                              │                                      │
│                              ▼                                      │
│  ┌─────────────────────────────────────────────────────────────┐   │
│  │  STE: 季节趋势编码 (Seasonal-Trend Encoding)                │   │
│  │                                                             │   │
│  │   季节性成分 + 趋势性成分                                     │   │
│  │   捕获历史交互模式的潜在变化                                  │   │
│  └─────────────────────────────────────────────────────────────┘   │
│                              │                                      │
│                              ▼                                      │
│  ┌─────────────────────────────────────────────────────────────┐   │
│  │                    可解释的注意力SAM                         │   │
│  │                                                             │   │
│  │   注意力分数 = f(时间依赖, 交互依赖, 语义依赖)               │   │
│  │                                                             │   │
│  │   明确建模三种依赖关系,可解释性强                            │   │
│  └─────────────────────────────────────────────────────────────┘   │
│                                                                     │
└─────────────────────────────────────────────────────────────────────┘

5.3 SAM可解释性分析

TIDFormer的核心贡献之一是阐明并验证了动态图注意力SAM的可解释性

注意力类型捕获的关系解释
时间注意力事件间时间依赖周期性模式、短期效应
交互注意力节点间交互模式社交影响、信息传播
语义注意力节点特征相似性兴趣相投、属性相关

6. 可扩展训练技术

6.1 REINC:分布式训练系统

论文ReInc: Scaling Training of Dynamic Graph Neural Networks

核心优化

技术说明效果
中间结果重用连续快照间共享计算减少冗余
增量聚合计算仅计算增量变化O(E) → O(ΔE)
两级缓存L1(GPU) + L2(CPU)减少IO开销
通信优化连续块放置消除远程通信

性能提升:相比SOTA框架实现10×加速

6.2 DyGC:动态图压缩

论文Dynamic Graph Condensation (DyGC)

┌─────────────────────────────────────────────────────────────────────┐
│                    动态图压缩 (DyGC)                                  │
├─────────────────────────────────────────────────────────────────────┤
│                                                                     │
│  原始动态图 ──→ 压缩 ──→ 合成动态图                                  │
│                                                                     │
│  ┌─────────────────────────────────────────────────────────────┐   │
│  │                        压缩目标                              │   │
│  │                                                             │   │
│  │   |V_s| << |V|    节点数大幅减少                           │   │
│  │   |E_s| << |E|    边数大幅减少                             │   │
│  │   性能保留 ≥ 96%                                            │   │
│  │   加速比 ≥ 1000×                                             │   │
│  │                                                             │   │
│  └─────────────────────────────────────────────────────────────┘   │
│                              │                                      │
│                              ▼                                      │
│  ┌─────────────────────────────────────────────────────────────┐   │
│  │                      技术方法                               │   │
│  │                                                             │   │
│  │   1. Spiking Structure Generation                          │   │
│  │      └── 脉冲神经元动态建模时序感知连接                      │   │
│  │                                                             │   │
│  │   2. Spatio-Temporal State Evolving Field                  │   │
│  │      └── 语义丰富的状态演化场                                │   │
│  │                                                             │   │
│  │   3. Fine-grained State Alignment                          │   │
│  │      └── 细粒度时空状态对齐                                  │   │
│  │                                                             │   │
│  └─────────────────────────────────────────────────────────────┘   │
│                                                                     │
│  实验结果:                                                          │
│  ┌─────────────────────────────────────────────────────────────┐   │
│  │   压缩率: 0.5% (使用0.5%的节点/边)                         │   │
│  │   性能保留: 96.2%                                          │   │
│  │   训练加速: 1846×                                          │   │
│  └─────────────────────────────────────────────────────────────┘   │
│                                                                     │
└─────────────────────────────────────────────────────────────────────┘

7. 模块化设计与工具

7.1 LDTGN:解耦设计

论文Leveraging Temporal Graph Networks Using Module Decoupling

会议:LoG 2025

问题:批处理导致**缺失更新(missing updates)**现象

解决方案:记忆模块与计算模块解耦

传统设计(耦合):
┌─────────────────────────────────────────────────┐
│  Memory ←── 同步更新 ──→ Computation            │
│            (批处理导致延迟)                       │
└─────────────────────────────────────────────────┘

LDTGN设计(解耦):
┌─────────────────────────────────────────────────┐
│  Memory ──── 异步更新 ──→ Computation          │
│      │                        ↑                 │
│      │    独立时钟            │                 │
│      └────────────────────────┘                 │
│         (无延迟更新)                            │
└─────────────────────────────────────────────────┘

7.2 TGM:模块化统一库

GitHubtgm-team/tgm

特性

特性说明
统一API支持CTDG和DTDG
效率相比DyGLib平均7.8×加速
模块化Hook框架标准化任务流程
即插即用支持多种主流TGNN模型

8. 与静态GNN的对比

8.1 核心差异

维度静态GNN时序GNN (TGNN)
图结构固定不变随时间演化
边信息单一表示带时间戳的事件序列
节点表示
时间依赖显式建模
计算复杂度额外考虑历史窗口

8.2 时序建模方法对比

方法时间编码记忆机制代表模型
RNN-based隐状态传递Memory模块TGN, JODIE
Attention-based时间位置编码自注意力TIDFormer
Continuous微分方程ODE求解CODEN
Memory-based轨迹编码记忆增强TETGN

9. 未来趋势

趋势说明
连续预测优化高频实时应用需求
Transformer融合更强的时序依赖建模
可扩展性大规模动态图训练
模块化设计提高研究和工程效率
理论分析表达力与收敛性保证

10. 相关专题


参考文献