9月22日消息,美团LongCat团队今日正式发布全新高效推理模型LongCat-Flash-Thinking。目前, 该模型已在HuggingFace、Github全面开源。

来源:龙猫LongCat公众号
据介绍,在保持了LongCat-Flash-Chat极致速度的同时,全新发布的LongCat-Flash-Thinking更强大、更专业。综合评估显示,LongCat-Flash-Thinking在逻辑、数学、代码、智能体等多个领域的推理任务中,达到了全球开源模型的最先进水平(SOTA)。
同时,LongCat-Flash-Thinking不仅增强了智能体自主调用工具的能力,还扩展了形式化定理证明能力,成为国内首个同时具备“深度思考+工具调用”与“非形式化+形式化”推理能力相结合的大语言模型。尤其在超高复杂度的任务(如数学、代码、智能体任务)处理上, LongCat-Flash-Thinking 具备更显著的优势。
值得一提的是,本月初,美团正式发布LongCat-Flash-Chat,并同步开源。LongCat-Flash采用创新性混合专家模型(Mixture-of-Experts, MoE)架构,总参数560B,激活参数18.6B~31.3B(平均27B),实现了计算效率与性能的双重优化。
特别声明:以上文章内容仅代表作者观点,不代表本站观点或立场。如有关于作品内容、版权或其它问题请于作品发表后与我们联系。
CYQY-生活与科技