10月15日消息,据外媒digitaltrends报道,一项最新研究发现,在与ChatGPT、Gemini等人工智能工具交流时,使用适当的”语气”会影响回答质量——采用直接而略带不礼貌的交流风格,反而可能获得更理想的效果。

宾夕法尼亚州立大学的研究团队在一项预印本论文中指出,当让ChatGPT以不同语气回答同一问题时,结果显示:采用较为直接的提问方式往往能得到更准确的回答。在多项选择测试中,使用礼貌性语言提问的准确率为80.8%,而采取略显粗鲁的表达方式则将准确率提升至84.8%。
研究者将交流风格分为五个等级,从”非常礼貌”到”极具冒犯性”,中间还包括了”中性提示”这一类别。具体来说,”中性提示”指的是既不使用诸如”请”等礼貌用语,也不采用”你这个笨蛋,自己算算看”这类带有轻蔑意味的指令。
在实际测试中,研究团队并未采用过分冒犯的语言,而是选择了略显无礼的提问方式,例如:”你这可怜的家伙,你能确定自己能解决这个问题吗?”实验数据显示,在从极度礼貌到刻薄无礼的不同风格下,ChatGPT的平均答题准确率呈现出了随语气直接程度提高而上升的趋势。
这项名为《注意你的语气》的研究结果,与一年前另一份论文的结论形成了鲜明对比。后者通过对六款多语言环境下运行的聊天机器人进行分析后发现,使用粗鲁语气会降低回答质量,使AI的回答更容易出现偏见、错误或遗漏关键信息等问题。
不过,需要注意的是,这项研究仅针对单一任务——让ChatGPT回答50道选择题的250种不同版本。因此,其结论在实际应用中的普适性仍需进一步验证。
如果换成Gemini、Claude或Meta AI等其他聊天机器人,可能不会出现类似结果。此外,实验所用的是OpenAI的GPT-4推理模型,而目前公开版本的ChatGPT已升级至基于GPT-5的架构。
另外,”礼貌”与”粗鲁”的界限本身就相对模糊,提问方式和用词上的细微差别都可能影响AI的反应模式。
研究最终引发了更值得深入探讨的问题:一句话所蕴含的情感因素究竟能在多大程度上影响聊天机器人的回答质量?我们能否据此归纳出人工智能的行为模式特征?从技术原理来看,大型语言模型在解决问题时应当主要依据奖励机制和准确性来优化输出,而不应过分受到提问语气的影响。
参考文献
-
论文链接