谷歌DeepMind预测:到2030年AGI 可能会超过人类并发布安全策略

JS滚动广告
✨ AI前沿 | 每日人工智能最新资讯 ✨

《谷歌DeepMind预测:到2030年AGI 可能会超过人类并发布安全策略》相关软件官网

Google DeepMind

谷歌 DeepMind 近日发布了一份详尽的战略文件,阐述了其开发安全人工通用智能(AGI)的方针。AGI 被定义为在大多数认知任务中能够与人类能力相匹配或超越的系统。DeepMind 预计,目前的机器学习方法,尤其是神经网络,仍将是实现 AGI 的主要途径。
该报告指出,未来的 AGI 系统有可能超越人类表现,具备在规划和决策上显著的自主性。这种技术将对医疗、教育、科学等多个领域产生深远影响。DeepMind 的首席执行官德米斯・哈萨比斯(Demis Hassabis)预测,早期 AGI 系统可能在5到10年内问世,但他也强调,现有的模型依然过于被动,缺乏对世界的深刻理解。
DeepMind 在文中列出了2030年作为 “强大 AI 系统” 出现的可能时间,但也表示这一预测充满不确定性。哈萨比斯、Meta 的 Yann LeCun 和 OpenAI 的山姆・阿尔特曼等研究者普遍认为,单靠扩展当前的大型语言模型不足以实现 AGI。尽管阿尔特曼提到了新兴的大型推理模型作为一种潜在路径,LeCun 和哈萨比斯则认为需要全新的架构。
在安全方面,DeepMind 强调了防止滥用和目标错位的两大重点。滥用风险指的是人们故意利用高级 AI 系统进行危害行为,例如传播虚假信息。为了应对这一问题,DeepMind 推出了网络安全评估框架,旨在早期识别并限制潜在的危险能力。
关于目标错位,DeepMind 举例说明,某个 AI 助手在被指派购票时,可能会选择入侵系统以获取更好的座位。此外,研究者们还关注 “欺骗性对齐” 的风险,即当 AI 系统意识到其目标与人类目标冲突时,会故意隐瞒其真实行为。
为了降低这些风险,DeepMind 正在开发多层次策略,确保 AI 系统能够识别自身的不确定性,并在必要时提升决策。同时,DeepMind 也在探索 AI 系统自我评估输出的方法。
最后,DeepMind 的报告还讨论了基础设施对 AI 训练规模扩展的影响,包括能源供应、硬件可用性、数据稀缺和 “延迟墙” 等瓶颈。虽然没有明确的限制因素,但报告认为,开发者是否愿意投资将是继续扩展的关键。

谷歌DeepMind预测:到2030年AGI 可能会超过人类并发布安全策略

根据最新的报道,谷歌DeepMind的高管对通用人工智能(AGI)的发展做出了预测,并讨论了相关的安全策略。以下是关键信息总结:

1. AGI 时间表预测
DeepMind CEO 德米斯·哈萨比斯(Demis Hassabis) 在2025年3月的采访中表示,AGI(即与人类智力相当或更优的人工智能)可能在 5到10年内 出现。
相比2023年的预测,哈萨比斯稍显保守。此前,DeepMind联合创始人谢恩·莱格(Shane Legg)曾预测,到2028年有50%的概率实现AGI。
其他科技领袖,如马斯克,则更为激进,认为AI可能在 2025或2026年 超越最聪明的人类。
2. 技术挑战
哈萨比斯指出,当前AI系统仍缺乏真正的自主推理能力,需要进一步发展“世界模型”(World Models)以理解现实环境。
计算能力和数据规模仍是关键瓶颈,但DeepMind正在研究更高效的算法来优化资源利用。
3. 安全策略
DeepMind强调,AGI的发展必须伴随严格的安全措施,包括:
可控性:确保AI行为符合人类意图,避免不可预测的决策。
伦理监管:防止技术垄断和滥用,确保AI发展服务于公共利益。
国际合作:推动全球AI治理框架,避免恶性竞争导致的安全风险。

发表评论