返回列表 发布新帖
查看: 14|回复: 0

[人工智能] Mistral Small 4 发布:推理、多模态、编程我全都要

发表于 昨天 15:44 | 查看全部 |阅读模式

这里或许是互联网从业者的最后一片净土,随客社区期待您的加入!

您需要 登录 才可以下载或查看,没有账号?立即注册

×
6390961664494611313103334.png

在开源大模型赛道,欧洲之光 Mistral AI 再次展现了其惊人的进化速度。

当地时间3月16日,Mistral AI 正式发布了 Mistral Small4。这是该实验室首款真正意义上的“全能型”大模型,首次在单一模型中完美兼顾了旗舰级推理、多模态理解以及强悍的编程能力。对于开发者而言,这意味着不再需要在各种垂直模型之间做“选择题”,因为新一代 Small4实现了“我全都要”。

Mistral Small4 采用了先进的 MoE(混合专家)架构:

核心参数: 总参数量为119B,激活参数仅为6B,在保证性能的同时极大优化了运行效率。

超长视野: 拥有 256k 的超长上下文窗口,能够轻松处理整本技术文档或大规模代码库。

灵活模式: 支持快速响应与深度推理两种模式,并以 Apache2.0协议 正式开源,诚意十足。

在性能表现上,Mistral Small4 较前代产品实现了质的飞跃。官方数据显示,在延迟优化模式下,其端到端完成时间缩短了40%;而在吞吐优化模式下,每秒处理的请求数量是 Small3的3倍。在与外部大模型的横向评测中,其在三大核心基准测试中的表现均不逊色于 OpenAI 的 GPT-OSS120B。

部署门槛与硬件建议:

为了发挥该模型的最大威力,Mistral AI 给出了明确的硬件指引。最低配置要求为4× HGX H100或1× DGX B200;而为了获得极致体验,官方推荐使用4× HGX H200或2× DGX B200的组合。

随着 Mistral Small4 的发布,Mistral AI 不仅巩固了其在开源界的领先地位,也为企业级应用提供了一个低延迟、高智能的全新标杆。当欧洲技术力量遇上极致的架构优化,这场 AI 全球竞赛正变得愈发精彩。

来源:AIbase

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Copyright © 2001-2026 Suike Tech All Rights Reserved. 随客交流社区 (备案号:津ICP备19010126号) |Processed in 0.109832 second(s), 9 queries , Gzip On, MemCached On.
关灯 在本版发帖返回顶部
快速回复 返回顶部 返回列表