节目

AI前沿:数据多样性选择、扩散性和知识蒸馏

所属专辑: AI可可AI生活
最近更新: 9小时前时长: 12:55
AI可可AI生活
扫码下载蜻蜓app
听书/听小说/听故事
4.5亿用户的选择
节目简介

本期播客精华汇总:

本期TAI快报,我们聚焦AI效率提升的最新研究进展,探讨了大型语言模型“瘦身大法”。

  1. [CL] Diversity-driven Data Selection for Language Model Tuning through Sparse Autoencoder:  通过稀疏自编码器 (SAE) 驱动的数据多样性选择,提升指令微调数据质量,实验证明SAE-GreedSelect和SAE-SimScale算法能有效提升模型性能。
  2. [CV] Improving the Diffusability of Autoencoders:  揭示自编码器“扩散性”对潜在扩散模型的重要性,提出尺度等变正则化方法,有效抑制潜在空间高频成分,显著提升图像和视频生成质量。
  3. [CV] Designing Parameter and Compute Efficient Diffusion Transformers using Distillation:  探索知识蒸馏技术在扩散Transformer模型压缩中的应用,系统研究模型设计空间,为设计参数/计算高效的扩散模型提供指导原则。
  4. [CL] LServe: Efficient Long-sequence LLM Serving with Unified Sparse Attention:  提出LServe系统,通过统一的块稀疏注意力机制,结合静态和动态稀疏性,加速长序列大型语言模型的预填充和解码过程,显著提升服务效率。
  5. [CL] RocketKV: Accelerating Long-Context LLM Inference via Two-Stage KV Cache Compression:  提出RocketKV两阶段KV缓存压缩方法,结合SnapKV++永久性淘汰和混合注意力动态选择,有效降低长上下文LLM推理的内存占用和延迟,实现端到端加速。

完整推介:https://mp.weixin.qq.com/s/JeP883IcyIMFpTByBwWLmA

评论
还没有评论哦

该专辑其他节目

回到顶部
/
收听历史
清空列表