返回列表 发布新帖
查看: 115|回复: 0

[人工智能] 腾讯混元发布并开源图生视频模型

发表于 2025-3-7 10:29:36 | 查看全部 |阅读模式

这里或许是互联网从业者的最后一片净土,随客社区期待您的加入!

您需要 登录 才可以下载或查看,没有账号?立即注册

×
日前,腾讯混元发布图生视频模型并对外开源,同时上线对口型与动作驱动等玩法,并支持生成背景音效及2K高质量视频。

据介绍,基于图生视频的能力,用户只需上传一张图片,并简短描述希望画面如何运动、镜头如何调度等,混元即可按照用户要求让图片动起来,变成5秒的短视频,还能自动配上合适的背景音效。此外,上传一张人物图片,并输入希望“对口型”的文字或音频,图片中的人物即可“说话”或“唱歌”;如果选择动作模版,还能一键生成同款跳舞视频。


此次开源的图生视频模型,是混元文生视频模型开源工作的延续,模型总参数量保持130亿,适用于多种类型的角色和场景。


开源内容包含权重、推理代码和LoRA训练代码,支持开发者基于混元训练专属LoRA等衍生模型。目前在Github、HuggingFace等主流开发者社区均可下载体验。

78C5718E-8CB4-4055-81A5-7A2505B91660.png
据混元开源技术报告披露,混元视频生成模型具备灵活的扩展性,图生视频和文生视频在相同的数据集上开展预训练工作。

目前,混元开源系列模型已经完整覆盖文本、图像、视频和3D生成等多个模态,在Github累计获得超2.3万开发者关注和star。


腾讯混元图生视频模型目前已经上线,企业和开发者可在腾讯云申请使用API接口;用户通过混元AI视频官网即可体验。


您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Copyright © 2001-2025 Suike Tech All Rights Reserved. 随客交流社区 (备案号:津ICP备19010126号) |Processed in 0.126087 second(s), 8 queries , Gzip On, MemCached On.
关灯 在本版发帖返回顶部
快速回复 返回顶部 返回列表