EXAONE 3.5是什么
EXAONE 3.5是LG AI研究院推出的开源AI模型,包含24亿、78亿和320亿参数的三个版本。EXAONE 3.5擅长长文本处理,在基准测试中表现优异,特别是在实际应用、长文本处理和数学方面。模型采用检索增强生成技术和多步推理能力,有效降低错误信息,提高准确性。LG计划进一步扩展其AI能力,并推出企业级AI智能体服务ChatEXAONE,具备复杂的查询分析和用户自定义搜索功能,配备加密和隐私保护技术,确保在公司内部安全使用。
EXAONE 3.5的主要功能
- 多版本模型支持:提供三种不同参数规模的模型,适应不同的应用场景和计算资源限制。
- 指令遵循能力:在实际场景中具有卓越的指令遵循能力,在多个基准测试中取得最高分。
- 长上下文理解:在长文本处理方面表现出色,有效理解和处理长达32K tokens的上下文。
- 双语能力:优秀的韩语和英语双语能力,特别是在韩国和英语的基准测试中表现突出。
- 检索增强生成技术:用检索增强生成技术,基于参考文档或网络搜索结果生成答案。
- 多步推理能力:具备多步推理能力,有效降低“幻觉”现象,提高答案的准确性。
EXAONE 3.5的技术原理
- Transformer架构:基于最新的仅解码器(decoder-only)Transformer架构,一种深度学习模型,用在处理序列数据。
- 长上下文处理:采用长上下文微调技术,将最大上下文长度从EXAONE 3.0的4,096 tokens扩展到32,768 tokens。
- 预训练和后训练:
- 预训练:第一阶段用大型训练语料库进行预训练,第二阶段针对需要加强的领域进行数据收集和预训练,特别是增强长上下文理解能力。
- 后训练:包括监督式微调(SFT)和偏好优化,加强模型的指令遵循能力和与人类偏好的一致性。
- 数据合规性:在数据收集、模型训练和信息提供过程中进行AI合规性审查,最小化法律风险。
- 检索增强生成(RAG)技术:结合检索和生成,让模型能处理更长的上下文,在复杂场景中应用。
EXAONE 3.5的项目地址
- 项目官网:lgresearch.ai/blog/view
- GitHub仓库:https://github.com/LG-AI-EXAONE/EXAONE-3.5
- HuggingFace模型库:https://huggingface.co/collections/LGAI-EXAONE/exaone-35
- arXiv技术论文:https://arxiv.org/pdf/2412.04862