微软高管苏莱曼:类人意识的AI即将出现,可能引发严重后果

AI资讯3周前发布 ainav
16 0

8月21日,外媒TechRadar报道指出,微软AI首席执行官穆斯塔法·苏莱曼对当前AI发展的潜在风险发出警告。他认为,即使只是让人们误以为AI具有意识,也可能引发严重后果。

苏莱曼强调,所谓的“看似有意识的AI”(SCAI)可能很快达到以假乱真的程度,在视觉和听觉上与人类几乎无异。这种高度拟真性可能导致用户难以辨别虚幻与现实。

微软高管苏莱曼:类人意识的AI即将出现,可能引发严重后果

他指出,AI技术正在迅速进步,以至于能够模拟人类情感、记忆和共情反应。这些特征可能使人们错误地认为AI具备感知能力,并将其视为具有意识的实体。

苏莱曼在文中写道:”SCAI的到来既是不可避免的,也是我们所不希望看到的。我们需要的是这样一种AI设计:它能够成为人类的有用伴侣,同时避免陷入让人产生幻觉的风险。”

他进一步指出,已有越来越多案例表明,用户在与聊天机器人进行长期互动后可能出现妄想信念。如果大量人被误导去主张AI公民身份,而忽视了技术本身存在的问题,这将带来严重的社会风险。

苏莱曼预测,结合大语言模型、语音表达、记忆与聊天记录的SCAI系统可能在几年内出现,并不仅仅局限于科技巨头,任何拥有相关API和优质提示的开发者都有可能开发出这样的系统。他强调,AI行业应当避免使用那些会助长机器意识幻觉的语言,不应将聊天机器人拟人化或暗示其具备理解和关心人类的能力。

苏莱曼呼吁建立有效的防护机制,以防止社会因人们过度依赖AI而出现问题。他认为,先进AI技术的真正风险不在于机器是否会真正觉醒,而在于我们可能错误地赋予它们意识,从而导致不可控的局面。

他最后强调:”我们必须开发优先与现实世界互动的AI系统,在最大化其实用性的同时,最小化其表现出的’意识特征’。AI应当始终明确呈现为工具,不应声称具备体验、感受或情绪等人类特性,例如羞愧、内疚、嫉妒或竞争欲,也不应通过声称受苦或渴望自主生存来触发人类共情。”

© 版权声明

相关文章