硅基流动上线腾讯混元翻译模型 Hunyuan-MT-7B
9月17日消息,硅基流动大模型服务平台已上线腾讯混元团队最新开源的翻译模型 Hunyuan-MT-7B。这是硅基流动上线的第 129 个模型。据悉,该模型支持33个语种互译(除中文、英语、日语等常见语种外,也包含捷克语、马拉地语、爱沙尼亚语、冰岛语等小语种),包括 5 种民汉语言/方言,而参数规模仅有 7B。它在 WMT2025 赛事中,拿下了全部 31 个语种比赛中的 30 个第一名。
硅基流动上线的 Hunyuan-MT-7B 模型支持 32K 最大上下文长度,目前限时免费使用。
据介绍,Hunyuan-MT-7B “小身材,大能量”的背后,是腾讯混元所设计的一整套训练方法:从预训练、CPT(继续预训练)、到监督调参、翻译强化,再到集成强化,完整覆盖了训练链路。
轻量化的设计思路,带来了实打实的部署优势:
[*]计算更高效:基于腾讯自研的 AngelSlim 大模型压缩工具对 Hunyuan-MT-7B 进行 FP8 量化压缩,推理性能进一步提升 30%,在相同硬件条件下能处理更多翻译任务;
[*]部署更灵活:不挑硬件环境,从高端服务器到边缘设备,都能顺利跑起来;
[*]成本更低:部署、运行和维护成本更低,用起来更省钱,还能保证翻译质量。
在 WMT2025(国际计算语言学协会举办的顶级机器翻译比赛)赛事中,Hunyuan-MT-7B 拿下了 30 个第一。
除了Hunyuan-MT-7B,硅基流动平台已上架包括Qwen-Image、Kimi-K2-0905、DeepSeek-V3.1、Wan2.2、step3、Qwen3-Coder、Qwen3-30B-A3B、MOSS-TTSD-V0.5、GLM-4.5、Qwen3-Embedding & Reranker、DeepSeek-R1-0528、Qwen2.5VL-72B、CosyVoice2 在内的各类语言、音频、图片、视频、嵌入与重排序模型。其中,DeepSeek-R1 蒸馏版(8B、7B、1.5B)、Qwen3-8B 等多款大模型可免费使用,让开发者实现“Token 自由”。
		页: 
[1]