本期精华内容:
- 《Reasoning-as-Logic-Units:Scaling Test-Time Reasoning in Large Language Models Through Logic Unit Alignment》,提出了RaLU框架,通过逻辑单元对齐解决大语言模型的“推理幻觉”问题,提升推理可靠性和可解释性。
- 《Distillation Scaling Laws》,提出了蒸馏缩放律,揭示了知识蒸馏中学生模型性能与计算资源分配的关系,为高效知识蒸馏提供了理论指导。
- 《The Geometry of Prompting:Unveiling Distinct Mechanisms of Task Adaptation in Language Models》,从几何学角度分析了不同提示方法在语言模型中的作用机制,揭示了示例提示和指令提示的不同工作原理。
- 《LLM Pretraining with Continuous Concepts》,提出了CoCoMix预训练框架,将连续概念融入预训练过程,提升了模型的样本效率、可解释性和可操控性。
- 《TransMLA: Multi-head Latent Attention Is All You Need》,提出了MLA多头潜注意力机制,在减少KV缓存的同时提升模型表达能力,为加速大语言模型推理提供了新方案。
完整推介:https://mp.weixin.qq.com/s/7RXMdDZFyAbmCwiy5DhMMQ