最近由AI Impacts研究项目、波恩大学和牛津大学联合进行的一项调查反映出AI专业人士对于这项技术近年来迅速发展的日益不安。
该调查涵盖了来自行业出版物和论坛的2778名贡献者。一个关键发现是:10%的人担心机器可能在三年内在所有任务上超越人类能力,50%的人认为到2047年这一情况很可能发生。
研究者写道:“虽然乐观的场景反映了AI在工作和生活各个方面的潜力,但悲观的预测——特别是那些涉及灭绝级风险的预测——提醒我们AI开发和部署涉及的高风险。”
AI可能很快就能处理更多任务.参与者被要求估计39个AI任务何时变得“可行”,即顶尖AI实验室能在一年内实现任务的时间点。这些任务的范围从翻译新发现的语言到从头开始构建支付处理站点。在未来十年内,除了四项任务外,所有任务都至少有50%的可能性变得可行。
调查还探讨了实现高级机器智能(HLMI)和全面自动化劳动(FAOL)的时间表。HLMI被定义为无需人类帮助的机器能够更好、更便宜地执行任务的时点。当机器能够比人类劳动更有效、更经济地完全自动化一个职业时,就达到了FAOL。参与者估计到2047年有50%的机会实现HLMI——比2022年的调查估计早了整整13年。对于全面劳动自动化,到2116年的可能性被设定为50%,比之前的预测提前了显著的48年。
未参与该研究的卡内基梅隆大学人类+AI设计倡议主任Chris McComb在接受采访时表示,到2037年所有人类职业都将完全可自动化的可能性“极低”。
“这里有两股相互竞争的力量在起作用——普通人的适应能力和AI在新情况下常常遇到困难的事实。”McComb说。“幸运的是,世界充满了新奇的情况!随着AI变得更加熟练地解决问题,人类将变得越来越重要,他们将找到方法将新奇情况转化为熟悉的构建块。
“在我们的研究中,我们已经开始看到确切的这一点,”他说。“当我们将人类和AI组成团队时,团队中的人类成员承担了至关重要的角色,帮助AI代理适应他们自己无法处理的新奇场景。我们称他们为‘AI处理者’。”
伦斯勒理工学院AI与推理实验室主任Selmer Bringsjord对这个时间表也持怀疑态度。但他在接受采访时说,到2050年,技术化经济体中的人类目前所持有的绝大多数工作完全可以由AI来完成。
“看看交通运输及其相关的工作就是一个有效的方法,把这个领域当作代表,”他补充道。“如果一个物品需要从印度班加罗尔运到阿迪朗达克公园的一个偏远湖泊,而这个物品,比如说,是在印度的一个家里……,那么,执行这一过程的每一寸都将由AI完成。这意味着没有人类装箱者(机器人),没有司机(自动驾驶车辆),没有飞行员(自动飞行的飞机和无人机),等等。这个箱子将安全无恙地放在那个湖边小屋的前门外,这一切都不需要人类参与。
“这一切到2050年将成为事实是毋庸置疑的,”Bringsjord说。调查要求参与者评估到2043年某些AI特性的可能性。大多数人相信,在未来20年内,基于AI的工具会以出人意料的方式实现目标(82%),能够像人类专家一样在大多数话题上进行对话(81%),并且经常以让人惊讶的方式行事(69%)。此外,早在2028年,许多人预计AI将经常让人类感到困惑,无法辨别系统输出背后的真正原因。
调查中还出现了对AI潜在滥用的重大担忧。这些担忧包括利用AI创建并传播虚假信息的深度伪造技术、操纵大规模公众舆论、使危险团体能够开发强大工具如病毒,并协助专制政权控制其人民。
受访专家在AI安全研究的重要性上达成了强烈共识,但对AI的影响看法不一:超过三分之二的受访者(68%)认为AI的好处超过了它的缺点。但大约58%的人至少认为有可能出现重大负面结果。风险感知随着所问问题的不同而变化:大约一半的人认为由于AI导致人类灭绝或严重削弱的可能性超过10%。并且十分之一的参与者估计灾难性后果(包括人类灭绝)的可能性至少为25%。
尽管如此,McComb仍然是乐观派之一。“长期以来,人类已经驾驭了从火到原子裂变的强大力量,”他说。“关键在于使用工程和设计原则有效且安全地驾驭这些力量,‘设计远离’破坏性潜力,转向生产性的好处。AI不是一个令人恐惧的威胁,而是一个应该使用的设计材料。”
相反,Bringsjord则属于悲观派。他描述了自己提出的PAID问题,即通过确定一个给定AI或一组AI的力量、自主性和智力水平来衡量其危险性或潜在破坏性。他指出,聊天机器人已经具有相当高的自主性水平;不久,随着它们考虑的数据接近地球上所有可用数据,这种自主性将增长。
“我认为我们在这里不是在谈论人类水平的‘自由意志’,也没有真正的创造力(这可能需要最大的自主性),但即将到来的自主性水平将是极端的。
“除非所有高科技开放市场民主国家都追求并应用某些科学和工程技术,否则未来那些同时具有强大力量、自主性和智力的AI最终将构成急迫的危险,并且很可能最终将我们摧毁。”