品玩10月14日讯,据9to5mac报道,苹果与俄亥俄州立大学联合发布新型扩散语言模型FS-DFM(少步离散流匹配模型),通过三步训练策略实现长文本生成效率突破,仅需8次迭代即可完成完整段落生成,较传统模型提速128倍。
实验数据显示,参数规模仅0.17-1.7B的FS-DFM在文本困惑度(perplexity)和熵值(entropy)指标上优于7B参数的Dream模型与8B参数的LLaDA模型。其核心技术通过处理不同迭代预算、引入教师模型引导及优化迭代过程,在减少计算量的同时保证文本质量。
苹果研究团队表示,将公开模型代码与检查点以支持学术复现,该成果为大模型轻量化与高效推理提供新路径,有望推动AI文本生成技术在内容创作、智能助手等场景的规模化应用。
