10月10日最新消息,国际知名科技媒体VentureBeat于8号发表博文指出,三星高级AI研究院近日开源发布了一款名为”微型递归模型”(TRM)的新型AI架构。该模型仅有700万个参数,在数独、迷宫等结构性推理任务中展现出令人惊叹的能力——其表现不仅可与谷歌Gemini 2.5 Pro等顶尖大模型相媲美,甚至在部分指标上实现了超越。
这一突破性成果由三星高级AI研究员Alexia Jolicoeur-Martineau主导发布,标志着AI领域小型化模型对抗大型化模型的又一重要进展。TRM的成功充分证明了”小而强大”的设计理念在特定应用场景下的显著优势。
从技术架构来看,TRM采用了极具创新性的两层单体结构设计,摒弃了传统分层推理模型中复杂的双网络协作机制。这种极简化的架构设计使模型具备了更高的运行效率和更低的计算成本。
其核心技术亮点在于”递归推理”机制:通过不断迭代优化自身预测结果,TRM能够有效修正每一步推断中的潜在误差,最终实现准确稳定的解答输出。这种创新性的推理方式使得模型能够在有限参数量下完成复杂的逻辑运算。

通过这种独特的递归计算方式,TRM成功实现了”以小博大”的技术目标:在不牺牲性能的前提下,显著降低了算力和内存需求。这意味着即使资源有限的场景下,开发者也能轻松部署并运行该模型。
在实际测试中,TRM展现了令人印象深刻的性能表现:
-
数独难题(Sudoku-Extreme):准确率高达87.4%
-
迷宫难关(Maze-Hard):解决率达85%
-
抽象推理基准(ARC-AGI):准确率45%
-
ARC-AGI-2测试:准确率8%
这些成绩的取得,基于TRM仅约0.01%的大模型参数量。即便如此,在与DeepSeek R1、Gemini 2.5 Pro和o3-mini等尖端大模型的对比中,TRM仍能保持不俗的竞争力。


需要特别说明的是,TRM主要针对结构性、可视化网格类问题(如数独、迷宫等)进行了专门优化设计,并非通用型聊天模型。它在具备明确规则的封闭环境中展现出了卓越的逻辑推理能力。
这种”少即是多”的极简主义设计理念,源于研究团队对AI模型复杂化的深入思考。研究表明,过多增加模型层数或规模反而可能导致过拟合问题,在小样本数据集上表现下降。TRM通过精简结构与递归深度优化相结合的方式,找到了性能的最佳平衡点。
目前,TRM的全套代码、训练脚本和相关数据集已完全开源,并采用MIT许可证协议开放使用。无论是企业还是研究机构,都可以自由下载、修改并用于商业用途。
参考链接
-
GitHub地址:[此处插入具体链接]
-
论文标题:《Less is More: Recursive Reasoning with Tiny Networks》