本期《TAI快报》深入探讨了五篇AI前沿论文,揭示了语言模型和网络预测领域的最新突破:
- Looking beyond the next token:提出TRELAWNEY方法,通过在训练数据中插入未来信息片段,显著提升语言模型的规划和可控生成能力,无需修改模型架构。
- Teaching Large Language Models to Reason through Learning and Forgetting:引入非似然微调(UFT),结合成功和失败推理路径,将搜索能力内化到模型,显著提升数学推理效率(快180倍)。
- A Minimalist Approach to LLM Reasoning: from Rejection Sampling to Reinforce:揭示简单拒绝采样(RAFT)在强化学习微调中的竞争力,提出Reinforce-Rej,强调样本过滤的重要性。
- Better Estimation of the KL Divergence Between Language Models:提出Rao-Blackwell化KL散度估计器,降低估计方差,提升RLHF训练稳定性。
- Transfer Learning for Temporal Link Prediction:通过结构映射模块实现时序链接预测模型的零样本迁移,增强在新网络上的适应性。
完整推介:https://mp.weixin.qq.com/s/zldL2MvyQW5Rph5qGF7PCg