DeepMind的145页关于AGI安全的论文可能无法说服怀疑论者

Google DeepMind周三发表了一篇关于其AGI安全方法的详尽论文,该论文大致定义为可以完成人类可以完成任何任务的AI。

DeepMind的145页关于AGI安全的论文可能无法说服怀疑论者

agi在AI领域中有点有争议,反对者暗示它不过是一个梦想。其他人,包括人类诸如人类之类的主要AI实验室,警告说,它的即将到来,如果不采取步骤来实施适当的保障措施,可能会造成灾难性的伤害。

DeepMind的145页文件是由DeepMind联合创始人Shane Legg合着的,预测AGI可以到2030年到达,并且可能导致作者称之为“严重伤害”。该论文并没有具体定义这一点,而是给出了“永久摧毁人类”的“存在风险”的危险示例。

“ [我们预期]在当前十年结束之前的发展,作者写道。 “一个杰出的AGI是一种能力匹配至少第99个熟练成年人的能力的系统,其中包括多种非物理任务,包括学习新技能等元认知任务。”

纸张,本文与DeepMind对AGI风险降低风险的处理与众者和Openai的处理方式进行了对比。它说,拟人化较少强调“强大的培训,监测和安全性”,而Openai则过于看好“自动化”一种AI安全研究的形式,称为AILIGNMENT研究。

本文还对超智能AI的生存能力提出了怀疑 - AI可以比任何人都能做得更好。 (Openai最近声称它将其目标从AGI转变为超级智能。)没有“重要的建筑创新”,DeepMind的作者不相信超级智能系统很快就会出现 - 如果有的话。

纸张确实发现它是Plau但是,目前的范式将实现“递归AI改进”:一个积极的反馈回路,其中AI进行了自己的AI研究以创建更复杂的AI系统。作者断言,这可能是非常危险的。

在很高的水平上,本文提出和倡导者开发技术,以阻止不良行为者访问假设的AGI,提高对AI系统行动的理解,并“硬化” AI所能采取的环境。它承认,许多技术都是新生的,并且存在“开放的研究问题”,但警告不要忽略可能会出现安全挑战。

“ AGI的变革性质具有令人难以置信的好处和严重危害的潜力,”作者写道。 “因此,要负责任地建造AGI,对于边境AI开发人员而言,主动计划减轻严重危害至关重要。”

一些专家不同意该论文的前提。

非营利性AI现任研究所的AI首席AI科学家Heidy Khlaaf告诉TechCrunch,她认为AGI的概念太明确了,无法“严格地进行科学评估”。另一位AI研究人员,艾伯塔大学助理教授Matthew Guzdial说,他认为目前不认为递归AI的改善是现实的。

“ [递归改进]是智力奇异性论点的基础,” Guzdial告诉TechCrunch,“但是我们从未见过任何证据。”

在牛津研究技术和法规的研究人员

桑德拉·瓦赫特(Sandra Wachter)认为,更现实的关注是通过“不准确的产出”来加强自己。

“随着Internet上生成AI输出的扩散和逐渐更换真实数据,模型现在正在从T中学习她对TechCrunch说:“继承人自己的输出充满了误解或幻觉,”此时,聊天机器人主要用于搜索和真相发现目的。这意味着我们不断有被肉体误解并相信它们的风险,因为它们以非常令人信服的方式呈现。”

>

综合性,DeepMind的论文似乎不太可能解决有关AGI的现实程度的辩论 - 以及最迫切需要关注的AI安全领域。

avatar

知识菜鸟 管理员

发布了:11520篇内容
查阅文章

发布评论

验证码

QQ交谈

在线咨询:QQ交谈

工作时间:每天9:00 - 18:00
若无特殊,节假日休息

我的微信