近日有报道称,社交平台巨头Meta正在调整其内容风险评估机制,计划将这一关键环节从人工审核向AI技术转移。据美国国家公共广播电台(NPR)获取的内部文件显示,Meta的目标是使高达90%的风险评估工作由人工智能完成,这包括涉及未成年人保护和”诚信安全”等多个重要领域的审查工作。尽管如此,一些熟悉情况的Meta前雇员和现职员工向NPR表示担忧:AI系统可能无法识别人工审核团队才能发现的一些严重风险。
长期以来,Meta旗下的Instagram和WhatsApp等平台在推出新功能前都需要经过严格的人工审核流程。但据最新报道,在过去两个月里,Meta明显加大了对AI技术的倚重。现在的产品团队需要填写一份详尽的产品调查问卷,并提交给AI系统进行评估。该系统会立即生成”风险提示”,指出潜在的问题所在。只有在产品团队按照AI系统的建议完成改进后,新产品才能对外发布。
一位Meta的资深人士指出,审核力度的减弱意味着”你正在制造更大的安全隐患”。因为一些潜在的产品问题可能在酿成严重后果之前就无法被及时发现和阻止。对此,Meta官方回应称,对于那些”新颖且复杂的问题”,公司仍然会依赖”人类专家的专业知识”进行评估,而将相对简单的”低风险决策”交由AI系统处理。
值得注意的是,就在几天前,Meta刚刚发布了最新的季度诚信报告。这是该公司今年初调整内容审核和事实核查政策后的首份成绩单。报告显示,在新政策实施后,被删除的内容数量出现了预期中的下降,但与此同时,网络霸凌、骚扰行为,以及暴力血腥内容却有小幅上升。
© 版权声明
文章版权归作者所有,未经允许请勿转载。