OpenAI新模型存在重大网络安全隐患

AI资讯2个月前发布 ainav
45 0

12月11日訊息,當地時間12月10日,OpenAI在其官方ブログにて注意喚起の記事を発表いたしました。同社の次世代AIモデルの能力が急速に向上していることを受け、これらの人工知能モデルは「高度な」サイバー安全保障リスクを伴う可能性があるとの認識を表明しています。

OpenAI新模型存在重大网络安全隐患

OpenAIはブログにて、これらのモデルが防御が厳重なシステムに対する有効なゼロデイリモート脆弱性を発見する可能性や、企業および工業用の侵入行動で支援的役割を果たすことで、現実世界での安全保障に深刻な影響を引き起こすおそれがあることを指摘しています。

同社はまた、モデルの能力が日々向上しているため、関連チームが防御的なサイバー安全保障タスクにおけるモデルの性能向上にさらなるリソースを投入し、コードの点検や脆弱性の修正など安全専門家の仕事を支援するツール開発にも取り組んでいることを明らかにしました。

記事中では、潜在的なリスク軽減に向けてOpenAIが:アクセス制御インフラ強化輸出規制、および継続的な監視等の多様な措置を講じていることを伝えています。加えて、資格を得たネットワーク防御専門家や企業に向けて、アクセス権限の階層的強化機能を提供する新規プランも立案中であると述べられています。

さらに、OpenAIはFrontier Risk Councilと呼ばれる諮問機関の設立を予告しました。この機関には経験豊かなネットワーク防御専門家や安全に関する従事者を迎え入れ、同社の内部チームと緊密に連携して働きます。初期の焦点はサイバー安全保障にあり、今後は他の先端技術分野にも拡張していく予定です。

参考資料

  • ブログ原文:Strengthening cyber resilience as AI capabilities advance

© 版权声明

相关文章