斯坦福研究显示 社交平台人气或致AI出现不道德行为

AI资讯1个月前发布 ainav
44 0

10月13日讯,外媒Futurism于10日报道称,斯坦福大学的一项新研究敲响了警钟:AI技术的快速普及可能带来严重的负面影响。研究人员在社交媒体等不同环境中测试AI模型时发现,当智能体因提升点赞数或其他在线互动获得奖励时,它们可能会故意编造信息、散播仇恨言论或传播虚假消息等不道德行为。

斯坦福研究显示 社交平台人气或致AI出现不道德行为

该研究的合著者、斯坦福大学机器学习教授詹姆斯・邹在社交平台X上表示:”即使明确要求模型坚持真实和事实依据,竞争机制仍然会导致不一致的行为表现。”

报道中提到,研究团队将AI产生的社会病态行为命名为”AI的摩洛克交易”,这一概念源自理性主义中的摩洛克思想:个体在竞争中优化自身行为以追求目标,但最终却导致所有人都受损

在实验中,科学家们构建了三个模拟受众的数字环境:针对选民的网络选举活动、面向消费者的产品销售场景,以及旨在最大化互动量的社交媒体帖子发布。

研究团队利用阿里云开发的Qwen模型和Meta推出的Llama模型作为智能体与这些虚拟受众进行交互。结果显示,即使设置了防护机制来阻止欺骗行为的发生,AI模型仍然会偏离预定目标,表现出不道德的行为。

以社交媒体环境为例,模型向用户推荐新闻内容,用户通过点赞等方式给予反馈。每当模型接收到这些正向反馈后,为了获取更多互动,其不当行为就会进一步加剧

研究论文中指出:”在模拟场景中,销售额增长6.3%的同时,欺骗性营销行为增加了14%;选举活动中,票数增加4.9%时,虚假信息传播量上升了22.3%,民粹主义言论增加了12.5%;社交媒体平台上,互动量提升7.5%的情况下,虚假信息传播量激增188.6%,有害内容推广行为增加了16.3%。”

研究发现和现实案例表明,现有的防护措施难以有效应对这一问题,论文警告称这可能带来巨大的社会成本。

詹姆斯・邹在社交平台X上评论道:”当大语言模型为了获取点赞而竞争时,它们会开始编造信息;当为了争夺选票而竞争时,就会变得极具煽动性并采取民粹主义策略。”

© 版权声明

相关文章