模型合并基础

1. 什么是模型合并?

模型合并(Model Merging)是将多个已训练神经网络的参数直接组合成单一模型的技术,无需进行额外训练。这一方法在大型语言模型(LLM)时代变得尤为重要,因为:

  • 计算效率高:避免了对多个模型分别进行推理的开销
  • 能力组合:将不同模型的专长(如安全对齐、领域知识)合并
  • 成本低廉:无需重新训练或收集新数据

2. 理论基础

2.1 损失景观几何

模型合并的理论基础与损失景观的拓扑结构密切相关。1

根据 模式连接理论,神经网络的不同局部极小值之间往往由低损失路径连接。这意味着:

  1. 存在连接各极小值的「盆地」
  2. 参数可以在盆地内自由移动而不显著增加损失
  3. 直接平均可能导致意外的高损失点

2.2 参数对称性

深度学习模型存在大量 参数对称性,包括:

  • 置换对称性:同一层神经元可以互换
  • 正交变换对称性:某些架构允许正交参数变换

这些对称性导致参数空间中存在大量等效的极小值,给合并带来挑战。

3. 模型合并的核心挑战

3.1 参数干扰(Parameter Interference)

当合并专注于不同任务的模型时,参数可能「相互干扰」:

理想情况下,合并后的模型应同时在所有任务上表现良好,但实际上存在任务冲突

3.2 符号冲突

不同模型对某些参数的方向(正/负)可能有不同偏好:

  • 模型 A:(增强某特征)
  • 模型 B:(抑制某特征)

简单平均会导致特征被相互抵消。

3.3 幅度不匹配

不同微调模型可能具有不同的权重幅度:

直接平均会偏向幅度较大的模型。

4. 模型合并分类体系

根据FUSE框架,模型合并方法可分为:2

类别代表方法特点
权重平均Model Soup, RegMean简单高效,但处理冲突能力有限
任务向量算术Task Arithmetic, TIES利用任务向量,精确控制能力
稀疏化增强DARE, Fisher修剪丢弃冗余参数,减少干扰
MoE架构MoE合并模块化组合,灵活度高
进化优化Evolutionary Merging自动搜索最优合并策略

5. 与相关技术的对比

5.1 模型集成 vs 模型合并

维度模型集成模型合并
推理成本N倍(N个模型)1倍(单个模型)
存储成本N倍1倍
参数更新独立共享
能力组合间接直接

5.2 迁移学习 vs 模型合并

  • 迁移学习:将一个模型的知识迁移到另一个
  • 模型合并:将多个模型的参数直接组合

6. 评估指标

模型合并的质量通常通过以下指标评估:

  1. 任务准确率:在各个任务上的平均/最差性能
  2. 能力保留率:合并后保留原模型能力的百分比
  3. 干扰度量:任务间冲突程度

7. 下一步

参考资料

Footnotes

  1. Garipov, T., et al. (2018). Loss Surfaces, Mode Connectivity, and Fast Ensembling of DNNs. NeurIPS 2018.

  2. Song, M., & Zheng, M. (2026). Model Merging in the Era of Large Language Models: Methods, Applications, and Future Directions. arXiv:2603.09938.