施密特警告:AI模型易被黑客利用

AI资讯1个月前发布 ainav
28 0

近日,谷歌前首席执行官埃里克·施密特向外界拉响AI领域的警报。他指出,人工智能技术存在难以忽视的安全隐患,且极易被不法分子操控。

在谈到AI的潜在风险时,施密特明确表示:”我们是否需要担心AI技术扩散?答案无疑是肯定的。”这种风险主要体现在技术可能落入恶意分子手中,并被用于非法用途。

他进一步指出:”无论是封闭源代码还是开源模型,都存在被黑客入侵并解除安全防护的可能性。在训练过程中,AI系统可能会学到各种技能,其中最令人担忧的是,它可能会学会如何进行危险操作。”

施密特警告:AI模型易被黑客利用

施密特补充道,目前所有主要公司都在努力防止模型回答敏感问题。尽管如此,这些模型仍存在被逆向工程的风险,这使得控制变得更加复杂。

值得注意的是,AI系统面临多种攻击手段,其中最常见的包括”提示注入攻击”和”越狱”。所谓”提示注入攻击”是指黑客在用户输入或外部数据中植入恶意指令,迫使AI执行未经授权的操作,例如泄露敏感信息或运行有害代码。而”越狱”则是指通过操控AI的回答,使其绕过安全限制生成违规内容。

尽管表达了对AI风险的担忧,施密特仍然对该技术的未来发展抱有乐观态度。他认为,目前还没有完善的”防扩散机制”来应对这些潜在风险,但AI的价值远未被完全挖掘。他提到,在与亨利·基辛格合著的书中,两人曾探讨过人工智能这种”半可控的外来智能”对人类文明的影响,并认为这一观点正在得到验证。

施密特最后表示,GPT系列模型引发的ChatGPT热潮令人瞩目,仅两个月时间就吸引了超过一亿用户。这充分展现了AI技术的强大影响力。他坚信,AI目前被低估而非高估,并期待在未来5到10年内证明这一观点的正确性。

© 版权声明

相关文章