Mistral为Le Chat新增远程智能体与Work模式
点击查看原文>
Mistral 发布了Mistral Medium 3.5,这是一款 1280 亿参数的模型,其目标是在单一系统内同时处理指令遵循、推理与编码,并在其 Vibe 和 Le Chat 产品中引入了新的云端智能体能力。该模型以公开预览形式提供,在修改版 MIT 许可下开放权重,支持最高 256k Token 的上下文窗口。它可在少量 GPU 上进行自托管,并支持按请求配置推理强度,既能输出短回复,也能执行更长的多步骤任务。
此次发布还在Mistral Vibe中引入了远程编码智能体,把执行从本地环境迁移到云端运行时。开发者可通过命令行界面或在Le Chat内发起编码会话,任务会在后台异步持续运行。会话可从本地执行无缝迁移到云端,并保留状态与历史,还可并行运行多个智能体。每个会话都运行在隔离环境中,智能体可修改代码、安装依赖并与外部系统交互。任务完成后,智能体可生成如 pull request 之类的产出,并通知用户审查。
Mistral Medium 3.5 被用作这些智能体的默认模型,并替代了 Vibe CLI 中的早期模型。它面向长时间的工作流而设计,包括需要工具调用与结构化输出的多步骤任务。该模型还包含一个视觉编码器,可处理可变图像输入。
此外,Mistral 还在 Le Chat 中引入了新的Work模式,使智能体能够跨已连接工具执行多步骤的工作流。在该模式下,系统可访问外部数据源、执行分析,并完成如起草消息、创建 issue 或生成报告等操作。智能体的行为具备可见性,包括工具调用与中间步骤,对敏感操作则要求用户审批。会话可跨多个步骤持续存在,使智能体能够持续迭代直到任务完成。
在X上的社区反馈整体积极,用户赞赏其本地到云端的无缝切换,对欧盟 AI 发展势头表示兴奋,也认可这款可在更少 GPU 上运行且能力较强的稠密模型(dense model)。
开发者Jarek Sobiecki发文称:
新模型目前表现不错。相较 DevStral 2 有明显提升!到目前为止,我测试了它在 Helm 模板、改进 GitLab 流水线以及创建端到端测试方面的表现。整体符合预期,没有随机的怪异行为。这真的做得很好!
其他用户已计划切回 Vibe,也有人讨论定价对比和早期性能测试,例如用户@gioelerosana评论说:
各位,1.5 美元输入/7.5 美元输出,按这个体量来说太贵了。(Gemini 3 Flash 是 0.5 美元输入/3 美元输出)
与OpenAI Codex、Cursor和Claude Code等工具相比,Mistral 更强调面向开发者的路径:开放权重、自托管选项以及云端智能体执行。其远程智能体也体现出更广泛趋势,即转向可独立运行并集成进开发流水线的异步、多步骤 AI 工作流。
该系统可与 GitHub、Jira 和 Slack 等开发工具集成,让智能体能够在既有流程内运行。此次发布反映出一个方向变化,那就是将 AI 智能体作为云端异步服务运行,并由模型能力与外部工具集成共同完成编排。
本文来源:InfoQ