近日,麻省理工学院(MIT)发布的一项最新研究揭示了一个令人担忧的问题:人工智能在处理否定词如”no”和”not”时仍存在显著理解障碍,这可能对医疗等关键领域构成重大风险。
尽管AI技术近年来取得了长足进步,能够执行诊断疾病、创作诗歌甚至自动驾驶等多种任务,但在处理否定语句方面却显得力不从心。这种缺陷尤其在需要高度精确的医疗场景中可能引发严重后果。
该研究由MIT博士生库迈尔·阿尔哈穆德领导,联合了OpenAI、牛津大学等机构共同开展。研究发现,当前主流的大语言模型——包括ChatGPT、Gemini和Llama在处理否定语句时存在明显缺陷。这些模型往往会忽略否定标记的实际含义,默认将否定词与肯定意义相关联。
研究人员指出,在医疗领域,这种对否定的理解偏差可能导致严重后果。例如,AI可能错误解读”no fracture”(无骨折)或”not enlarged”(未扩大),从而造成误诊或其他危险情况。
斯坦福大学的深度学习专家卡塔夫鲁什指出,问题的核心不在于数据量不足,而在于模型本身的训练机制。他认为,大多数语言模型依赖于模式识别和统计预测,而非真正的逻辑推理能力。
这种缺陷的具体表现之一是,当遇到”not good”(不好)这样的表达时,AI仍可能基于其中的”good”一词产生正向联想,从而导致误判。专家们强调,若不提升模型的逻辑推理能力,这类潜在风险将长期存在。
Lagrange Labs的研究工程师弗兰克林·德勒埃尔也指出,AI系统擅长从训练数据中提取模式并进行模仿,但在面对未见过的新情境时往往表现不佳。这限制了其实际应用的可靠性和安全性。
针对这一问题,研究团队尝试通过生成合成否定语料库来改进模型。虽然这种方法取得了一定效果,但要完全理解和处理各种复杂的否定表达仍面临巨大挑战。
卡塔夫鲁什警告称,AI对否定词的误解不仅是一个技术难题,更可能在法律、医疗和人力资源等领域引发关键错误。他强调,解决这一问题需要采取新的方法:将统计学习与结构化逻辑推理相结合,从而提升模型的理解能力。