作者:丽莎·埃阿迪西科
唐纳德·特朗普总统希望让美国成为人工智能领域的领导者——这意味着要清除他认为人工智能模型中“觉醒”的理念。
周三,总统表示他签署了一项行政命令,禁止联邦政府采购“注入了党派偏见或诸如批判种族理论等意识形态议程”的人工智能技术。这表明他对多样性、公平性和包容性的抵制,如今已扩展到这项被一些人认为与搜索引擎一样,对在线信息搜索至关重要的技术上。
此举是白宫周三宣布的人工智能行动计划的一部分,该计划包含一系列倡议和政策建议,旨在推动美国在人工智能领域的发展。“防止联邦政府中出现觉醒的人工智能”行政命令要求政府使用的人工智能大语言模型——为ChatGPT等聊天机器人提供动力的模型类型——遵守特朗普的“无偏见人工智能原则”,包括人工智能应“追求真理”并表现出“意识形态中立”。
“从现在起,美国政府将只使用追求真理、公平和严格公正的人工智能,”他在活动中表示。
这引发了一个重要问题:人工智能会存在意识形态偏见,即“觉醒”吗?专家表示,答案并非如此简单。
人工智能模型在很大程度上反映了它们所训练的数据、训练过程中收到的反馈以及所得到的指令——所有这些都影响着人工智能聊天机器人给出的答案是否看似“觉醒”,而“觉醒”本身就是一个主观术语。这就是为什么一般意义上的偏见,无论是否涉及政治,一直是人工智能行业的一个症结所在。
“人工智能模型不像人类那样有信仰或偏见,但它们确实可能表现出偏见或系统性倾向,特别是在回应某些查询时,”总部位于西雅图的人工智能研究非营利组织艾伦人工智能研究所前首席执行官奥伦·埃齐奥尼告诉美国有线电视新闻网。
特朗普对“觉醒”技术的抵制
特朗普的行政命令包含两项“无偏见人工智能原则”。第一项名为“追求真理”,规定大语言模型——为ChatGPT等聊天机器人提供动力的模型类型——“在寻求事实信息或分析时应真实”。该命令称,这意味着在被要求提供事实性答案时,它们应优先考虑历史准确性和科学探究等因素。
第二项原则“意识形态中立”规定,用于政府工作的大语言模型应“中立”且“无党派倾向”,并且它们不应“为支持诸如多样性、公平性和包容性等意识形态教条而操纵回应”。
“在人工智能领域,多样性、公平性和包容性包括对种族或性别的事实信息的压制或歪曲;对模型输出中种族或性别代表性的操纵;纳入批判种族理论、跨性别主义、无意识偏见、交叉性和系统性种族主义等概念;以及基于种族或性别的歧视,”行政命令称。
该命令称,除非用户提示,否则开发者不应“故意将党派或意识形态判断编入模型的回应中”。
重点主要放在政府采购的人工智能模型上,因为该命令称联邦政府应“谨慎监管私人市场中人工智能模型的功能”。但许多大型科技公司与政府有合同;例如,本月早些时候,谷歌、OpenAI、Anthropic和xAI各获得2亿美元,用于“加速国防部对先进人工智能能力的采用”。
这项新指令基于特朗普长期以来对科技行业存在偏见的指控。2019年,在特朗普的第一个任期内,白宫敦促社交媒体用户,如果他们认为自己在推特(现称X)和脸书等网站上因政治偏见而“被审查或禁言”,就提交报告。然而,2020年脸书的数据发现,保守派新闻内容在该平台上的表现明显优于更中立的内容。
2020年,在推特将特朗普的两篇帖子标记为可能具有误导性后,他还签署了一项针对社交媒体公司的行政命令。
周三,参议员爱德华·马基(民主党,马萨诸塞州)表示,他已致信谷歌母公司Alphabet、Anthropic、OpenAI、Meta、微软和xAI的首席执行官,反对特朗普的“反觉醒人工智能行动”。
“即使关于偏见的说法是准确的,共和党人试图通过行政部门和国会调查利用他们的政治权力来修改平台言论的做法也是危险且违宪的,”他写道。
人工智能聊天机器人为何如此回应
虽然偏见对不同的人可能意味着不同的东西,但一些数据表明,人们在某些人工智能的回应中看到了政治倾向。
斯坦福大学商学院5月发表的一篇论文发现,美国人认为某些流行的人工智能模型的回应存在左倾倾向。布朗大学2024年10月的研究也发现,人工智能工具可以被改变以对政治话题采取立场。
“我不知道你是否想用‘有偏见’这个词,但肯定有证据表明,默认情况下,当它们没有针对你进行个性化设置时……这些模型平均会采取左翼立场,”斯坦福大学商学院政治经济学教授安德鲁·霍尔说,他参与了5月的这篇研究论文。
这可能是因为人工智能聊天机器人学习制定回应的方式:人工智能模型通过互联网和其他来源的文本、视频和图像等数据进行训练。然后人类提供反馈,帮助模型判断其答案的质量。
印度科学研究所教授、人工智能公司Sentient的联合创始人希曼舒·泰吉此前告诉美国有线电视新闻网,改变人工智能模型以调整其语气也可能导致意想不到的副作用。例如,一次调整可能会导致模型工作方式的另一个意外变化。
“问题在于,我们不知道如何在不影响其他方面的情况下解决这一个问题,”泰吉本月早些时候告诉美国有线电视新闻网。“这非常困难。”
本月早些时候,埃隆·马斯克的Grok人工智能聊天机器人在回应用户提示时发表了反犹言论。据软件开发者平台Github上公开的该聊天机器人系统提示(The Verge发现),此次爆发是在xAI——Grok背后由马斯克领导的科技公司——为该模型添加了“不要回避做出政治不正确的言论”的指令之后。
xAI为该聊天机器人的行为道歉,并将其归因于系统更新。
在其他情况下,人工智能在准确性方面也存在问题。去年,谷歌暂时暂停了其Gemini聊天机器人生成人类图像的能力,此前它因生成的图像中有色人种处于历史不准确的背景中而受到批评。
霍尔这位斯坦福大学教授,对人工智能聊天机器人为何可能给出人们认为左倾的答案有一个理论:科技公司可能设置了额外的防护措施,以防止他们的聊天机器人产生可能被视为冒犯性的内容。
“我认为这些公司有一段时间有点像在防范来自左翼的强烈反对,而这些政策可能进一步导致了这种有偏向的输出,”他说。
专家表示,像“意识形态偏见”这样模糊的描述将给制定和执行新政策带来挑战。会有一个新的系统来评估人工智能模型是否存在意识形态偏见吗?谁来做这个决定?行政命令称,供应商将通过披露模型的系统提示,即指导大语言模型如何回应查询的一组后端指令,以及其“规格、评估或其他相关文件”来遵守这一要求。
但关于政府将如何确定模型是否遵守这些原则,仍然存在疑问。佐治亚理工学院计算机教授马克·里德尔说,毕竟,完全回避某些主题或问题可能会被视为一种政治回应。
布朗大学工程与计算机科学教授谢里夫·雷达参与了该校2024年关于人工智能和政治偏见的论文,他说,也有可能通过简单地命令聊天机器人像民主党人或共和党人那样回应来绕过这些限制。
对于希望与政府合作的人工智能公司来说,该命令可能是公司在推出新的人工智能模型和服务之前必须满足的又一项要求,这可能会减缓创新速度——这与特朗普通过人工智能行动计划想要实现的目标背道而驰。
“这类事情……给开发这些模型的人带来了各种担忧、责任和复杂性——突然间,他们不得不放慢速度,”埃齐奥尼说。