OpenAI正在计划如何应对基因选举的恐惧

OpenAI正致力于缓解人们对其技术对选举影响的担忧,因为全球超过三分之一的人口今年将参与投票。其中计划举行选举的国家包括美国、巴基斯坦、印度、南非以及欧洲议会。

OpenAI在周一的博客文章中写道:“我们希望确保我们的人工智能系统被安全地构建、部署和使用。像任何新技术一样,这些工具带来了好处和挑战。它们也是前所未有的,我们将随着对工具使用方式的了解不断进化我们的方法。”

越来越多的人担心生成性人工智能(genAI)工具可能被滥用,扰乱民主进程,尤其是自从OpenAI——在微软的支持下——于2022年底推出ChatGPT以来。

OpenAI的工具以其类人的文本生成能力而闻名。另一个工具,DALL-E,可以生成高度逼真的伪造图片,通常被称为“深度伪造”。

OpenAI为选举做准备。作为其措施的一部分,OpenAI表示ChatGPT将把用户对特定选举相关查询重定向到CanIVote.org。该公司还致力于使用其DALL-E技术增强AI生成图片的透明度,并计划在这类照片上加上“cr”图标,表示它们是由AI生成的。

该公司还计划通过整合实时全球新闻报道(包括适当的归属和链接)来增强其ChatGPT平台。这项新闻举措是去年与德国媒体集团Axel Springer达成协议的扩展。根据这项协议,ChatGPT用户可以访问Axel Springer各种媒体渠道的选定全球新闻内容的摘要版。除了这些措施,该公司还在开发技术,以识别DALL-E创建的内容,即使这些图片经过了修改。

关于混合AI和政治的担忧日益增长。没有一个通用规则来规定genAI在政治中应如何使用。去年,Meta宣布它将禁止政治活动在其广告中使用genAI工具,并要求政治家在其广告中披露任何此类使用。同样,YouTube表示所有内容创作者必须披露他们的视频是否包含“逼真”但经过修改的媒体,包括那些使用AI创建的。

同时,美国联邦选举委员会(FCC)正在审议现有的法律,即“欺诈性地错误代表其他候选人或政党”,是否适用于AI生成的内容。(关于这个问题的正式决定还在等待。)

虚假和欺骗性信息一直是选举中的一个因素,诺特丹大学和平研究的Richard G. Starmann讲座教授Lisa Schirch说。但genAI让更多人能够创造出更加逼真的虚假宣传。

数十个国家已经建立了网络战中心,雇佣了数千人来创建虚假账户、生成欺骗性帖子,并在社交媒体上传播虚假和欺骗性信息,Schirch说。例如,在斯洛伐克选举前两天,有人发布了一段伪造的音频录音,内容是一位政治家试图操纵选举。

“问题不仅仅是虚假信息;而是恶意行为者可以创造出旨在激起愤怒和愤慨的候选人情感描绘,”Schirch补充道。“AI机器人可以扫描在线的大量材料,预测哪种类型的政治广告可能具有说服力。在这个意义上,AI就像是已经燃烧的政治两极分化的火上加油。AI使得轻松创建旨在最大化说服和操纵公众舆论的材料成为可能。”

一个主要的担忧涉及genAI和吸引眼球的标题,涉及深度伪造和图像,乔治华盛顿大学政治传播伦理项目主任Peter Loge说。更大的威胁来自于可以即时生成无限量相似内容信息的大型语言模型(LLMs),使世界充满伪造品。

“LLMs和生成性AI可以用胡言乱语淹没社交媒体、评论部分、给编辑的信、给活动的电子邮件等,”他补充道。“这至少有三个效果——第一个是政治胡说的指数级增长,这可能导致更大的愤世嫉俗,让候选人通过声称这些主张是由机器人生成的来否认实际的不良行为。“我们已经进入了一个新时代,‘你将信任谁,我、你的说谎的眼睛,还是你的计算机的说谎的LLM?’”Loge说。

根据Mine的首席执行官Gal Ringel的说法,当前的保护措施不足以防止genAI在今年的选举中发挥作用。他说,即使一个国家的基础设施能够阻止或消除攻击,在线上流传的genAI创建的错误信息也可能影响人们对比赛的看法,甚至可能影响最终结果。

“美国社会目前的信任度如此之低,以至于不良行为者采用AI可能会产生非常强烈的影响,而解决这个问题真的没有快速的方法,除了构建一个更好、更安全的互联网,”Ringel补充道。

社交媒体公司需要制定政策,以减少AI生成内容的危害,同时小心保护合法的讨论,卡内基梅隆大学CyLab教授Kathleen M. Carley说。例如,他们可以使用独特的图标公开验证选举官员的账户。公司还应限制或禁止否认即将到来或正在进行的选举结果的广告。他们还应该标记那些由AI生成的选举广告为AI生成,从而提高透明度。

“AI技术在不断发展,需要新的安全措施,”Carley补充道。“此外,AI可以通过识别那些传播仇恨、识别仇恨言论以及创造有助于选民教育和批判性思维的内容来提供帮助。”

联系方式
回顶部