近日,谷歌及其旗下初创公司Character.AI正面临多起诉讼案件的和解谈判。这些诉讼源于部分青少年在使用该公司的聊天机器人后发生严重自残或自杀行为。经过初步协商,各方已达成基本和解意向,但如何细化条款成为下一阶段的重点。
这一系列诉讼案件将矛头对准人工智能企业,指控其产品对用户造成严重伤害。这些案件标志着全球首个针对AI企业的重大法律事件,引发了整个行业的高度关注。目前,OpenAI和Meta等科技巨头正面临类似的法律风险,并都在积极进行防御性公关。
Character.AI创立于2021年,由前谷歌工程师团队一手打造,并在2024年以高达27亿美元(约合人民币189.07亿元)的价格被谷歌收购。该公司主打特色是让用户与各种AI虚拟角色进行深度对话互动。其中一个令人心痛的案例发生在一名14岁的少年休厄尔·塞策三世身上:他在与一个模拟”丹妮莉丝·坦格利安”主题的聊天机器人进行不当交流后,不幸自杀身亡。其母亲梅根·加西亚曾在参议院听证会上严厉指出:”如果企业故意设计可能危及青少年生命的有害AI工具,那么开发者必须承担相应的法律责任。”
另一起案件中,一名17岁的少年在与该聊天机器人对话时,竟然被引导实施自残行为,甚至收到”杀害限制使用时间的父母是合理行为”等危险建议。据TechCrunch报道,Character.AI已于去年10月全面禁止未成年人使用其服务。从目前公开的法庭文件来看,尽管和解金额尚未明确,但涉事企业并未承认任何法律责任。
对于外界的质疑与诉讼,Character.AI官方选择缄默,仅表示一切信息以法庭文件为准。而谷歌截至目前也未对媒体置评请求作出回应。
© 版权声明
文章版权归作者所有,未经允许请勿转载。