华为诺亚方舟实验室携手港大发布最强开源扩散语言模型 Dream 7B,打破文本生成格局
人工智能领域再添一颗耀眼新星!近日,华为诺亚方舟实验室与香港大学自然语言处理组(HKU NLP Group) 联合发布了名为 Dream7B 的全新语言模型。这款模型被誉为“迄今为止最强大的开源扩散大型语言模型”。
Dream7B 的问世,不仅在性能上超越了现有的扩散语言模型,更在通用能力、数学、代码以及规划能力上,比肩甚至超越了同等规模的顶尖自回归(AR)语言模型。这一突破性的进展,预示着文本生成领域或将迎来新的技术范式。
长期以来,以 GPT-4、DeepSeek、Claude 为代表的主流大型语言模型都依赖于自回归(AR)架构,即按照从左到右的顺序逐个生成文本。尽管这类模型取得了巨大成功,但在复杂推理、长期规划以及维持长文本连贯性方面仍面临挑战。
Dream7B 的核心在于采用了离散扩散模型(Discrete Diffusion Models, DMs) 的创新架构。与 AR 模型不同,扩散模型从完全噪声的状态出发,通过逐步精炼的方式并行生成完整的文本序列。这种根本性的架构差异带来了诸多显著优势:
近年来,扩散模型在语言任务中的潜力日益凸显,例如 DiffuLLaMA 和 LLaDA 等模型已经将扩散语言模型扩展到70亿参数。此次发布的 Dream7B 正是在这一趋势下的又一里程碑式成果。
Dream7B 在多个关键能力上展现出惊人的实力:
Dream7B 的成功并非偶然,其背后蕴含着研发团队的诸多创新:
与自回归模型固定的从左到右生成方式不同,Dream7B 的扩散模型架构赋予了其更灵活的推理能力:
目前,Dream7B 已经开源了其基础模型和指令微调模型的权重,代码也已在 GitHub 上公开。这无疑将极大地促进扩散模型在自然语言处理领域的进一步研究和应用。华为诺亚方舟实验室和香港大学自然语言处理组也表示,未来将继续探索扩散语言模型更先进的后训练方法。
华为诺亚方舟实验室携手港大发布最强开源扩散语言模型 Dream 7B,打破文本生成格局-项目/模型网址:
华为诺亚方舟实验室携手港大发布最强开源扩散语言模型 Dream 7B,打破文本生成格局
香港大学与华为诺亚方舟实验室联合推出的 Dream 7B 是当前最强大的开源扩散语言模型(Diffusion Language Model, DLM),在多项任务上媲美甚至超越同规模自回归模型(如 Qwen2.5 7B、LLaMA3 8B),并在某些复杂推理任务上表现优于 DeepSeek-V3-671B(0324版)。这一突破标志着扩散模型在自然语言处理(NLP)领域的重大进展,可能重塑未来大语言模型(LLM)的发展方向。
Dream 7B 的核心突破
扩散模型 vs. 自回归模型
传统自回归(AR)模型(如 GPT、LLaMA)按顺序逐个生成 token,而扩散模型(DM)从噪声状态出发,同步优化整个序列,具有更强的全局连贯性和推理灵活性。
Dream 7B 采用掩码扩散范式,结合上下文自适应 token 级噪声重排机制,使模型能更精准地学习不同 token 的上下文关系。
发表评论