Google AI 提出了扩散模型中推理时间缩放的基本框架

[db:摘要]

来自纽约大学、麻省理工学院和谷歌的研究团队近日提出了一个创新框架,旨在解决扩散模型在推理时间扩展方面的瓶颈问题。这一突破性研究超越了传统简单增加去噪步骤的方法,为提升生成模型性能开辟了新途径。

该框架主要从两个维度展开:一是利用验证器提供反馈,二是实施算法以发现更优的噪声候选。研究团队以256×256分辨率的预训练SiT-XL模型为基础,在保持250个固定去噪步骤的同时,创新性地引入了专用于搜索操作的额外计算资源。

在验证系统方面,研究采用了两个Oracle Verifier:Inception Score (IS)和Fréchet Inception Distance (FID)。IS基于预训练的InceptionV3模型选择最高分类概率,而FID则致力于最小化与预先计算的ImageNet Inception特征统计之间的差异。

QQ20250120-142056.png

实验结果显示,该框架在多个基准测试中表现出色。在DrawBench测试中,LLM Grader评估证实了搜索验证方法能持续提升样本质量。特别是ImageReward和Verifier Ensemble在各项指标上都取得了显著进步,这归功于它们精确的评估能力和与人类偏好的高度一致性。

这项研究不仅证实了基于搜索的计算扩展方法的有效性,也揭示了不同验证器的固有偏差,为未来开发更专业化的视觉生成任务验证系统指明了方向。这一发现对于提升AI生成模型的整体性能具有重要意义。

本文由「aiuc」编辑整理,文章链接:https://www.aiuc.net/6683

该文观点仅代表作者本人,平台仅提供信息存储空间服务。

(0)
aiucaiuc
上一篇 2025年1月20日 下午2:08
下一篇 2025年1月20日 下午2:32

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注