LongCat API开放平台更新日志
版本: 2026-02-05
LongCat-Flash-Lite 发布
- LongCat-Flash-Lite正式发布。该模型采用高效 MoE 架构(总参数 685亿,激活参数约 30亿),通过 N-gram 嵌入表实现参数的高效利用,并针对推理效率与特定场景深度优化。
- 相较于同量级模型,模型核心特性如下:
- 卓越的推理效率:通过 N-gram 嵌入表从底层缓解 MoE 的 I/O 瓶颈,配合专用缓存与内核优化,大幅降低推理延迟并提升效率;
- 强大的 Agent 与代码性能:在工具调用和代码开发领域展现出极强的竞争力,相对于其模型规模表现十分出色。
- 调用指南请参考:LongCat API开放平台接口文档
- 开源平台地址
版本: 2026-01-14
LongCat-Flash-Thinking-2601 发布
LongCat-Flash-Thinking-2601正式发布。该模型作为升级版推理模型,基于混合专家(MoE)架构,总参数量达 5600 亿。在保持传统推理基准极强竞争力的同时,通过大规模多环境强化学习,系统性增强了Agent思维能力。
相较于 LongCat-Flash-Thinking 模型,本次升级核心特性如下:
- 极致的抗噪环境鲁棒性:针对现实环境中的噪声与不确定性开展系统性课程式训练,模型在Agent工具调用、Agent搜索及工具融合推理领域表现卓越,泛化能力显著提升;
- 强大的 Agent 能力:构建包含 60 余种工具的紧密依赖图谱,通过多环境扩展与大规模探索训练,显著提升模型在复杂、分布外现实场景中的泛化能力;
- 先进的深度思考模式:利用并行推理拓展思维广度,配合递归反馈的总结归纳机制拓展思维深度,有效攻克高难度问题。
调用指南请参考: LongCat API开放平台接口文档
开源平台地址
版本: 2025-12-22
LongCat-Flash-Chat更新
LongCat-Flash-Chat模型已升级至新版本。本次升级仅涉及模型能力更新,模型名称及API调用方式保持不变。
新版本的LongCat-Flash-Chat模型在延续“极致效率”与“闪电级响应”的基础上,进一步提升了模型上下文与编程实战能力:
- 编程能力显著增强:面向开发者场景进行深度优化,在代码生成、调试与解释等任务中表现大幅提升,推荐开发者重点关注与测试;
- 支持256K超长上下文:上下文长度较上一代模型(128K)翻倍,可高效处理海量文档与长序列任务;
- 多语言能力全面加强:出色支持西班牙语、法语、阿拉伯语、葡萄牙语、俄语、印尼语等9种语言;
- 更强大的Agent能力:在复杂工具调用与多步任务执行中表现更加稳健、高效。
调用指南请参考:LongCat API开放平台接口文档
版本: 2025-09-22
LongCat-Flash-Thinking发布
LongCat-Flash-Thinking正式发布,并同步开源。该模型是一款深度思考模型,可以在LongCat Chat中免费对话,也可以通过指定
model=LongCat-Flash-Thinking调用。LongCat Chat地址:https://longcat.chat/
调用指南请参考: LongCat API开放平台接口文档
开源平台地址
版本: 2025-09-05
LongCat API开放平台上线
LongCat API开放平台上线,支持API调用模型LongCat-Flash-Chat,可以通过指定
model=Loncat-Flash-Chat调用。调用指南请参考: LongCat API开放平台接口文档
版本: 2025-08-29
LongCat-Flash-Chat发布
LongCat-Flash-Chat正式发布,并同步开源。该模型是一款高性能通用对话模型,可以在LongCat Chat中免费对话。
LongCat Chat地址:https://longcat.chat/
开源平台地址