英国多方呼吁限制Meta利用AI进行风险评估

AI资讯5小时前发布 ainav
1 0

6月9日,据外媒报道,互联网安全领域的多位活动家向英国通信管理局Ofcom提出倡议,建议严格控制人工智能技术在关键风险评估环节的应用。这一倡议的背景是社交平台Meta公司(旗下运营着Facebook、Instagram和WhatsApp等应用程序)计划将风险评估流程进行全面自动化改造。

英国多方呼吁限制Meta利用AI进行风险评估

对此,Ofcom机构表示,在上个月发布的一份报告指出,Meta公司高达90%的风险评估工作将由人工智能完成之后,该局正在认真考虑社会各界人士的担忧和建议。

根据英国《在线安全法案》的要求,社交平台需要定期评估平台上可能出现的安全风险,并制定相应的防范措施,尤其是要对儿童用户的安全保护以及非法内容的管控给予特别关注。而风险评估流程被视为落实该法案的关键环节。

包括莫莉・罗斯基金会(Molly Rose Foundation)、国家防止虐待儿童协会(NSPCC)和互联网观察基金会(Internet Watch Foundation)等多家机构致信Ofcom首席执行官梅兰妮·道斯(Melanie Dawes),称采用人工智能驱动的风险评估系统是一种”倒退且令人担忧的做法”。

这些组织在信中强调:”我们强烈建议您明确表示,根据法案要求的’合适且充分’标准,单纯依靠自动化技术完成的风险评估通常难以被视为合规。”同时,信中还敦促监管机构对社交平台可能采取的简化风险评估流程的做法保持警惕。

Ofcom发言人回应称:”我们已要求相关服务提供方明确说明风险评估的具体执行人员,并正在审慎考虑社会各界提出的关切,后续将择机做出官方回应。”

对于外界的质疑,Meta公司予以反驳,认为这些言论故意曲解了公司的安全政策立场。Meta强调始终致力于遵守相关法律法规,并保持高标准的安全防护措施。该公司发言人表示:”我们并不是通过人工智能来直接做出风险决策。相反,我们的专家团队开发了一套辅助工具,用于帮助专业人员识别特定产品是否符合现行法律和政策要求。我们在严格的人类监督下使用技术手段,以提升我们对有害内容的管理效能,而这些技术改进已显著提升了平台的安全水平。”

值得一提的是,美国国家公共广播电台(NPR)此前曾报道,Meta计划通过AI系统来代替人工审核其算法更新和新的安全功能。

据一位要求匿名的Meta前高管向NPR透露,这一改变将使公司能够更快地推出Facebook、Instagram和WhatsApp等应用的功能更新。但同时他也指出,这种做法可能会带来更大的风险管控挑战。

此外,报道还提到,除了算法更新之外,Meta公司还在考虑将AI技术应用于其他关键的安全评估环节,这一动向引发了行业内和社会公众的广泛关注和讨论。

© 版权声明

相关文章