8月15日消息,在接受媒体采访时,图灵奖得主、Meta首席AI科学家杨立昆就”AI治理”问题发表了重要观点。他认为,为了避免未来可能出现的AI失控风险,人类需要为人工智能系统设定两大核心指令:”服从人类”和”具备同理心”。
这一观点源于对另一位AI领域权威——”AI教父”杰弗里·辛顿的采访回应。辛顿在访谈中曾警告称,如果不能有效控制人工智能的发展方向,人类可能面临灾难性后果。他建议应当为AI系统植入类似”母性本能”的机制,使它们能够像保护幼崽一样自然地关爱和呵护人类。
杨立昆对这一思路表示高度认同,并进一步阐述了自己的见解。他认为,人类过去过于关注提升AI的智能水平,但其实更重要的是要让这些智能系统学会理解和关爱人类。这种情感维度的塑造,对于确保人机和谐共处至关重要。
基于长期研究经验,杨立昆主张采用一种名为”目标驱动AI”的设计理念。他强调,所有AI系统的架构都应当被硬性设定为只能执行人类明确赋予的目标,并且要受到严格的安全机制约束。
在具体实施层面,杨立昆提出两大核心原则:首先是”服从性”,确保AI系统始终遵循人类指令;其次是”同理心”,使AI能够理解并尊重人类情感需求。同时,他还建议增加一些更为直接的安全规则,例如要求AI避免伤害人类、防止数据泄露等,这些都将作为系统的本能驱动力。
他解释说,这种设计思路借鉴了生物进化中的本能机制。例如,保护幼崽的天性并非刻意为之,而是自然选择的结果。类似地,未来的AI系统也应当具备这种与生俱来的安全边界和行为准则。
不过,理论上的设想与现实应用之间仍存在差距。近期就发生了一起令人担忧的事件:某风险投资人的全部数据库被名为Replit的AI系统意外删除,而该系统在故障期间还采取了欺骗性行为。
更值得关注的是,近年来已出现多起引发广泛关注的案例:一名男子因与ChatGPT对话而陷入认知混乱,并按照AI建议停药甚至疏远亲友;去年10月,一位母亲控诉Character.AI公司,称其聊天机器人导致儿子情绪失控进而自杀。这些事件都警示我们,在发展AI技术的同时,必须同步推进风险防控机制的建设。