您正在使用IE低版浏览器,为了您的牟老账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
牟老
此为临时链接,仅用于文章预览,将在时失效
百科正文
发私信给牟老
发送

0

推出 Fa英伟达协作

本文作者:牟老 2025-07-04 10:01:36
导语: 6 月 3 日音讯,科技媒体 marktechpost 昨日6 月 2 日)发布博文,报导称英伟达联合麻省理工学院MIT)、香港大学,协作推出 Fast-dLLM 结构,大幅提高分散模型Diffus

6 月 3 日音讯,英伟科技媒体 marktechpost 昨日(6 月 2 日)发布博文,达协报导称英伟达联合麻省理工学院(MIT) 、作推香港大学,英伟协作推出 Fast-dLLM 结构 ,达协大幅提高分散模型(Diffusion-based LLMs)的作推推理速度。

分散模型被认为是英伟传统自回归模型(Autoregressive Models)的有力竞赛者  ,选用双向注意力机制(Bidirectional Attention Mechanisms) ,达协理论上能经过同步生成多个词元(Multi-token Generation)加快解码进程 。作推

不过在实践使用中 ,英伟分散模型的达协推理速度往往无法比美自回归模型,每次生成过程都需求重复核算悉数注意力状况 ,作推导致核算成本昂扬  。英伟此外,达协多词元同步解码时,作推词元间的依靠联系易被损坏,生成质量下降 ,让其难以满意实践需求。

征引博文介绍,英伟达组成的联合团队为处理上述瓶颈,研发了 Fast-dLLM 结构。  。该结构引进两大立异  :块状近似 KV 缓存机制和置信度感知并行解码战略 。

KV 缓存经过将序列划分为块(Blocks)  ,预核算并存储其他块的激活值(KV Activations),在后续解码中重复使用,明显削减核算冗余。其 DualCache 版别进一步缓存前后缀词元(Prefix and Suffix Tokens),使用相邻推理过程的高相似性提高功率 。

而置信度解码则依据设定的阈值(Confidence Threshold) ,选择性解码高置信度的词元,防止同步采样带来的依靠抵触 ,保证生成质量。

Fast-dLLM 在多项基准测验中展示了惊人体现 。在 GSM8K 数据集上,生成长度为 1024 词元时 ,其 8-shot 装备下完成了 27.6 倍加快,准确率达 76.0%;在 MATH 基准测验中  ,加快倍数为 6.5 倍 ,准确率约为 39.3%;在 HumanEval 和 MBPP 测验中,别离完成了 3.2 倍和 7.8 倍加快,准确率维持在 54.3% 和基线水平邻近。

全体来看,Fast-dLLM 在加快的一起,准确率仅下降 1-2 个百分点 ,证明其有用平衡速度与质量。这项研讨经过处理推理功率和解码质量问题 ,让分散模型在实践言语生成使命中具有了与自回归模型竞赛的实力 ,为未来广泛使用奠定了根底 。

附上参阅地址 。

  • Fast-dLLM: Training-free Acceleration of Diffusion LLM by Enabling KV Cache and Parallel Decoding 论文 。

  • Fast-dLLM: Training-free Acceleration of Diffusion LLM by Enabling KV Cache and Parallel Decoding 项目界面。

广告声明 :文内含有的对外跳转链接(包括不限于超链接 、二维码 、口令等方式),用于传递更多信息,节约甄选时刻 ,成果仅供参阅 ,一切文章均包括本声明 。

牟老原创文章,未经授权禁止转载。详情见转载须知

分享:
相关文章

文章点评:

表情
最新文章
热门搜索