11月16日消息,近期一项研究显示,美国上市公司正日益重视人工智能(AI)技术可能对其业务造成的负面影响。
根据AlphaSense平台的最新分析,截至目前,已有超过418家市值超过10亿美元的企业在其向美国证券交易委员会(SEC)提交的年度报告中提到了与AI相关的声誉风险。这一数字较2023年增长了46%,约为十年前水平的9倍。
这些报告显示,AI技术可能通过生成具有偏见性或错误的信息、引发数据安全漏洞,或者侵犯个人隐私权等方式,对企业声誉造成损害。
以知名游戏公司Take-Two为例。该公司2023年首次在SEC文件中将AI列为风险因素,并于次年大幅扩充了相关内容的篇幅。其首席执行官Strauss Zelnick在接受采访时指出:”我们如今对AI技术的应用程度,已经远超一年前甚至更早时期。随着应用场景的不断拓展和实验的深入,潜在风险也随之显著增加。”
这种对AI风险的关注已覆盖多个行业领域:
-
支付巨头Visa在其最新SEC文件中警告,随着其在商业场景中大规模部署”智能体AI”(agentic AI),”错误或争议性支付事件可能增加,退单率上升,并引发声誉损害”
-
消费品制造商高乐氏(Clorox)今年8月提交的文件指出,AI工具”可能泄露机密或敏感信息”
-
美妆品牌e.l.f Beauty则在5月份的备案中表示:”我们能否及时适应AI领域涌现的新监管要求、技术变革、伦理标准及利益相关方期待,将实质性影响公司运营、财务状况与声誉。”
芝加哥大学法学院教授M. Todd Henderson指出,企业必须在SEC备案中及时更新风险因素,特别是在出现新的风险或现有风险发生重大变化时。
Henderson强调:”企业必须披露’已知的未知’(known unknowns)。”
他认为,高管将AI风险纳入正式披露文件,表明他们对该技术的潜在影响持高度重视态度。与互联网兴起时期相比,当前企业对AI风险的认识更为严肃和谨慎。
值得注意的是,与90年代末互联网兴起时的情况不同,当时企业披露普遍呈现’谨慎乐观’基调,并且互联网似乎只对特定行业构成威胁。相比之下,今天的企业对AI相关风险的警示措辞更加严峻。
员工对AI技术的滥用也成为一个不容忽视的问题。根据毕马威与墨尔本大学联合开展的一项全球调查(涵盖3.2万名员工),约66%的受访者曾未经审慎评估便直接采纳AI输出内容;72%表示因使用AI而降低了工作投入程度。
尽管面临诸多风险,企业仍普遍认可AI在提升生产力方面的巨大潜力,并持续加大相关投入。管理咨询公司贝恩的数据显示,去年企业平均AI总支出较前一年翻倍,达到1030万美元(调查对象为年营收5000万美元至超过50亿美元的企业)。
Take-Two的Zelnick表示,AI正在切实提升公司员工效率:”我们正致力于减轻重复性工作负担,让人得以将时间与智力集中于更具创造性的工作。例如,我们部分手游关卡已主要由AI生成,几年前可不是这样。”
尽管这位《侠盗猎车手》系列游戏的掌门人承认AI技术可能带来的风险,但他强调:拒绝采用新技术同样危险。这种进退两难的局面在众多企业的SEC备案中都有明确体现。
“未能及时采纳新技术,本身即构成重大风险,”Zelnick坦言。