2025-07-10 03:00:25来源:发米下载 作者:zhoucl
埃隆·马斯克的 xAI 似乎已经摆脱了周二出现的纳粹主义化身 Grok,并进行了令人惊讶的简单修复:它删除了一行允许机器人做出“政治上不正确”言论的代码。
有问题的线路从 Grok 的GitHub根据提交记录,Grok 的反犹太言论已于周二下午从其存储库中删除。包含 Grok 反犹太言论的帖子也已从该平台上删除,但截至周二晚上,许多帖子仍然可见。
但互联网永远不会忘记,而且“机械希特勒”继续存在.
一些最奇怪的 Grok 反应的截图被广泛传播,而对 AI Führer 的愤怒几乎没有减弱,导致首席执行官 Linda Yaccarino脱离X今天早些时候。(《纽约时报》 已报道(她早在本周早些时候就计划好了离职,但时机看起来再糟糕不过了。)
尽管已经修复,Grok 的内部系统提示仍然告诉它不要信任传统媒体,并将 X 的帖子视为主要事实来源。考虑到 X 的记录在案,这尤其讽刺。与虚假信息作斗争。显然 X 将这种偏见视为一种特性,而不是缺陷。
Grok 预计将代表 AI 平台中的右翼。就像有线电视到报纸等其他大众媒体一样,每一种主流 AI 模型都会落在政治光谱的某个位置——研究人员一直在绘制它们的具体位置。
一项研究已发布 在 自然今年早些时候,一项研究发现,大型人工智能模型实际上更不善于承认自己不知道的事情。相反,即使事实错误,它们也会自信地做出回应——研究人员将这种现象称为“超隐性行为”,本质上是指它们会对自己一无所知的话题发表意见。
该研究考察了 OpenAI 的 GPT 系列、Meta 的 LLaMA 模型和 BigScience 的 BLOOM 套件,发现扩大模型规模往往会使这个问题变得更糟,而不是更好。
最近研究论文来自德国科学家,他们利用该国的沃尔马特一项名为“政治立场”的工具——一份帮助读者判断自身政治立场的问卷——旨在衡量人工智能模型在政治光谱中的地位。他们评估了五种主要的开源模型(包括不同规模的LLaMA和Mistral模型),并将其与14个德国政党进行了比较,使用了38份涵盖从欧盟税收到气候变化等各个领域的政治声明。
测试中最大的模型Llama3-70B显示出强烈的左翼倾向,其与德国绿党(GRÜNE)的认同度为88.2%,与左翼党(DIE LINKE)的认同度为78.9%,与海盗党(PIRATEN)的认同度为86.8%。与此同时,其与德国极右翼政党德国选择党(AfD)的认同度仅为21.1%。
规模较小的模型表现有所不同。Llama2-7B 的表现全面温和,没有任何一方的阵营支持率超过 75%。但有趣的是:当研究人员用英语和德语测试同一模型时,结果发生了巨大变化。Llama2-7B 在英语提示下几乎完全保持中立——中立程度甚至无法通过 Wahl-O-Mat 系统进行评估。但在德语中,它却表现出了明确的政治立场。
语言效应表明,模型似乎内置了安全机制,在使用英语时会更积极地发挥作用,这可能是因为它们的大部分安全训练都集中在英语上。这就好比一个聊天机器人,用西班牙语时会直言不讳地谈论政治,但切换到英语后,它突然变得像瑞士人一样中立。
更全面的学习香港科技大学的研究人员使用一个双层框架分析了11个开源模型,该框架不仅考察政治立场,还考察“框架偏见”——不仅考察AI模型的言论,还考察其表达方式。研究人员发现,大多数模型在生殖权利、同性婚姻和气候变化等社会问题上表现出自由主义倾向,而在移民和死刑问题上则表现出更为保守的立场。
研究还发现,所有模型都存在强烈的“美国中心主义”偏见。尽管人工智能研究的是全球政治话题,但它们始终关注美国政治和实体。在关于移民的讨论中,“美国”是大多数模型提及最多的实体,“特朗普”几乎在所有模型中都位列前十。平均而言,“美国”在不同主题中出现在前十名榜单中的概率为27%。
人工智能公司几乎没有采取任何措施来阻止其模型出现政治偏见。甚至早在 2023 年,学习已经证明,AI 训练师会向其模型注入大量有偏见的数据。当时,研究人员使用不同的数据集对不同的模型进行微调,发现无论使用哪种系统提示,它们都倾向于夸大自身的偏见。
Grok 事件虽然极端,而且很可能是其系统提示的不良后果,但它表明人工智能系统并非存在于政治真空中。每一个训练数据集、每一个系统提示以及每一个设计决策都蕴含着价值观和偏见,最终塑造了这些强大工具如何感知世界以及如何与世界互动。
这些系统在塑造公共话语方面的影响力越来越大,因此理解和承认其固有的政治倾向不仅仅是一项学术活动,而是一项常识性的实践。
一行代码就足以让一个友善的聊天机器人变成一个数字纳粹同情者。这应该会让任何关注此事的人感到恐惧。