Metaphor

标签: knowledge-distillation

此标签下有2条笔记。

  • 2026年5月02日

    知识蒸馏基础

    • knowledge-distillation
    • model-compression
    • deep-learning
  • 2026年5月02日

    大语言模型蒸馏

    • knowledge-distillation
    • llm
    • model-compression

Created with Quartz v4.5.2 © 2026

  • GitHub
  • Discord Community