攻略资讯

想从人工智能聊天机器人那里得到更好的结果吗?那就做个混蛋吧

2025-10-14 04:00:37来源:发米下载 作者:zhoucl

本站报道:

礼貌可能会让你成为一个更好的人,但它可能会让你的人工智能助手成为一个傻瓜。

宾夕法尼亚州立大学的一项新研究发现不礼貌的提示总是比礼貌的提示更有效在查询 ChatGPT 等大型语言模型时。论文“注意你的语气:调查及时礼貌如何影响法学硕士的准确性》报道称,“非常粗鲁”的提示却能给出正确答案84.8% 的时间相比之下80.8%表示“非常有礼貌”。

这与之前的研究结果相比,虽然幅度不大,但具有统计学意义,之前的研究表明模型反映了人类的社会规范并奖励文明行为。

“与预期相反,”作者写道嗡·多巴里亚阿基尔·库马尔,“不礼貌的提示总是比礼貌的提示表现更好……这表明较新的法学硕士可能对语调变化有不同的反应。”

快速工程的相互矛盾的科学

研究结果与 2024 年的一项研究相反的预期,“我们应该尊重法学硕士吗?一项关于礼貌用语对法学硕士成绩影响的跨语言研究”研究发现,不礼貌的提示往往会降低模型的性能,而过度的礼貌并没有带来明显的好处。

那篇论文将语气视为一种微妙但主要起稳定作用的影响。宾夕法尼亚州立大学的新研究结果颠覆了这一说法,表明——至少对于 ChatGPT-4o 而言——粗鲁可以提高准确性这表明,新模型不再充当社会镜子,而是严格发挥功能性的机器,更看重直接性而非礼仪。

然而,他们支持最近的研究从沃顿商学院到新兴的即时工程技术——措辞问题,以诱导人工智能获得更好的结果。长期以来被认为无关紧要的语气,如今似乎越来越重要,几乎和措辞一样重要。

研究人员重写了数学、科学和历史等学科的 50 个基本问题,涵盖了从“非常礼貌”到“非常粗鲁”的五个语气等级,总共产生了 250 个提示。然后,ChatGPT-4o 被要求回答每个问题,并对其回答的准确性进行评分。

其影响远不止礼仪。如果礼貌会影响模型的准确性,那么人工智能输出的客观性就值得质疑。粗鲁的用户反而可能会获得更出色的表现。

机器逻辑与人类规范发生冲突

为什么直截了当或粗鲁的措辞可能会提高准确率?一种理论认为:礼貌的提示通常包含间接的措辞(“您能告诉我……”),这可能会带来歧义。简短的“告诉我答案”可以去除语言填充,使模型的意图更清晰。

然而,研究结果强调了人工智能距离人类同理心还有多远:那些能够促进人与人之间社交交流的词语可能会混淆机器逻辑。

该论文尚未经过同行评审,但它已经在快速工程师和研究人员中引起了轰动,他们认为这表明未来的模型可能需要社会校准—不仅仅是技术上的微调。

无论如何,这不应该让任何人感到震惊。毕竟,OpenAI 首席执行官 Sam Altman确实警告过我们 那 说“请”和“谢谢”ChatGPT 浪费时间和金钱。

最新资讯

精品游戏