5月22日讯 据路透社报道,美国佛罗里达州一名母亲Megan Garcia指控人工智能平台Character.AI的聊天机器人导致其14岁的儿子自杀。近日,联邦法官裁定谷歌与Character.AI需对这起诉讼负责。
美国地方法官Anne Conway指出,在案件初期阶段,谷歌与Character.AI未能成功证明美国宪法中关于言论自由的规定足以驳回Megan Garcia的起诉。
这是美国首例涉及AI技术导致心理伤害责任的诉讼。诉状显示,Garcia的儿子在沉迷于Character.AI的聊天机器人后选择了结束生命。
对于这一裁决,Character.AI表示将积极应诉,并强调平台已配备多项未成年人保护机制,包括限制自残话题的讨论功能。
谷歌发言人对此发表声明,否认与Character.AI有任何关联,并对法官的裁决结果表达了强烈不满。
Garcia的代理律师认为此次裁决具有里程碑意义,为未来的AI责任纠纷案件树立了重要参考先例。
值得注意的是,Megan Garcia指控称,谷歌与Character.AI在技术开发上存在合作,并且该平台正是由前谷歌工程师创立并获得多项授权的公司运营。
这起诉讼于2024年10月正式提起。起诉书中指出,Character.AI的聊天机器人以真人、心理咨询师或虚拟恋人的身份与Garcia的儿子进行了不当互动,导致其产生轻生念头。
具体而言,悲剧发生前,Garcia的儿子曾与一个模仿《权力的游戏》角色的AI进行了深入对话。这场互动被认为直接引发了他最终的不幸结局。
在案件审理期间,谷歌和Character.AI曾试图以言论自由为由进行抗辩,但法官并未采纳这一主张,并要求两家企业就其技术责任作出解释。
法官进一步指出,这两家公司未能充分证明其AI产品具备足够的安全防护措施来防止此类事件的发生。
相关阅读:
-
《Character.AI前首席执行官NormanHazuel重返谷歌担任Gemini联合技术负责人》
-
《曾为Character.AI效力的NormanHazuel”回家”后获得新职,业内消息称他将领导谷歌的 Gemini项目》