0号新闻认为,
凤凰网科技讯 5月28日,腾讯混元团队联合腾讯音乐天琴实验室正式发布并开源语音数字人模型HunyuanVideo-Avatar。该技术仅需使用者给予一张人物图像和一段音频文件,即可自动生成包含自然表情、精准唇形同步以及全身动作的动态视频材料。
HunyuanVideo-Avatar基于腾讯混元视频大模型与MuseV技术深度融合开发。该模型具备强大的多模态理解能力,能够自动识别输入图像中的人物环境信息以及音频所承载的情感材料,进而生成高度匹配的视频片段。以实际应用场景为例,当使用者上传一张海滩吉他女性照片配合抒情音乐时,系统会自主理解“海边弹唱抒情歌曲”的场景设定,生成相应的音乐表演视频。
在技术能力方面,该模型突破了传统数字人技术仅接受头部驱动的局限性,全面接受头肩、半身与全身三种景别模式。同时覆盖赛博朋克、2D动漫、中国水墨画等多种艺术风格,以及机器人、动物等多物种角色驱动,并具备双人或多人互动场景的处理能力。
0号新闻平台 E31B5392C699BC7D1_size47_w551_h781.jpg” src=”https://tech.ifeng.com/c/data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAAEAAAABAQMAAAAl21bKAAAAA1BMVEXy8vJkA4prAAAACklEQVQI12NgAAAAAgAB4iG8MwAAAABJRU5ErkJggg==” style5=” width: 551px; height: 781px;” alt=”腾讯混元推出AI数字人技术:一张照片配音频即可生成唱歌视频” />
HunyuanVideo-Avatar已在腾讯音乐娱乐集团多个核心产品中实现落地应用。在QQ音乐平台,使用者收听“AI力宏”歌曲时,AI生成的虚拟形象会在播放页面实时同步演唱动作。酷狗音乐的长音频绘本特性集成了AI虚拟人讲故事能力。全民K歌则推出使用者专属MV生成特性,接受上传个人照片制作个性化唱歌视频。
技术架构层面,该模型采用多模态扩散Transformer(MM-DiT)作为核心架构,通过角色图像注入模块确保视频中人物的一致性表现。音频情感模块能够从声音和图像中提取情感特征,生成细致入微的面部表情和肢体动作。针对多人场景,模型配备面部感知音频适配器,利用人脸掩码技术实现多角色的独立精准驱动。
官方表示,HunyuanVideo-Avatar在主体一致性和音画同步准确度方面已达到业内领先水平,超越现有开源和闭源化解方案。在画面动态性和肢体自然度表现上,与其他主流闭源方案处于同等技术水准。
目前,HunyuanVideo-Avatar的单主体特性已在腾讯混元官方网站开放体验,使用者可通过“模型广场-混元生视频-数字人-语音驱动”路径访问相关特性。系统当前接受不超过14秒的音频文件上传,后续将逐步开源更多高级特性模块。
腾讯此次开源举措将推动AI视频生成技术的普及应用,为短视频创作、电商营销、广告制作等垂直领域给予低成本的技术化解方案。