
i️ 注:包含插件示例的图片和演示项目均使用运行时音频导入器和/或运行时文本转语音/运行时AI聊天机器人集成插件创建。所以,要遵循这些例子,你还需要安装这些插件。不过,你也可以自己实现音频输入解决方案,而不使用它们。
🗣️ 满足每个项目需求的三种高级型号!
让你的元人类和自定义角色焕发生机,零延迟、实时对口型同步!现在推出了三款符合您项目需求的优质型号:
🌟 情绪驱动的真实模型——为拥有12种不同情绪的MetaHuman角色提供情感感知面部动画
🌟 真实模型——专为更自然的口腔动作(81个面部控制)的MetaHuman角色提供更强的视觉真实度)
⚡️ 标准模型——广泛兼容元人类和自定义字符(14个字义))
通过无缝、实时的口型同步,完全离线且跨平台运行,改造你的数字角色!观看角色如何自然地回应语音输入,创造出沉浸且可信的对话,且只需极少的设置。
快速链接:
- 🌐 产品官网
- 🎮 打包演示项目(Windows)
- 📦 演示源文件(UE 5.6)——需要此插件 + 运行时音频导入器,可选:文本转语音 / AI 聊天机器人。标准模型需要一个小型扩展插件(见文档)。
- 📄 文献资料
- 💬 Discord 支持聊天
- 📌 插件支持与定制开发:solutions@georgy.dev(为团队和组织量身定制解决方案)
最新视频教程:
高质量(逼真模型)教程:
- 🎥 语音对语音演示(完整AI工作流程)
- 🎥 高质量口型同步,支持情绪控制和本地TTS
- 🎥 ElevenLabs 和 OpenAI TTS 的高质量对口型同步
- 🎥 高质量现场麦克风对嘴
- 🎥 演示视频展示了插件的功能
标准模型教程:
总体设置:
- 🎥 设置教程视频
🚀 主要特点:
- 麦克风输入及其他音频源的实时口型同步
- 情绪表达控制,支持12种不同情绪和可调节强度
- 由检测到的音频提示生成的动态笑声动画
- Pixel Streaming 麦克风支持——启用浏览器输入的实时口型同步!
- 离线处理——无需网络连接
- 跨平台兼容性:Windows、Mac、iOS、Linux、Android、Meta Quest
- 优化为所有平台的实时性能
- 适用于元人类和自定义角色:
- 热门商业角色(Daz Genesis 8/9,Reallusion CC3/CC4,Mixamo)
- 基于FACS的角色模型
- ARKit 混合形状标准
- 任何带有自定义面部表情变形目标的角色
- 多音频来源:
🌟 搭配以下设备效果很好:
- 运行时音频导入器——用于麦克风采集和音频处理
- 运行时文本转语音——适用于本地(离线)文本转语音
- 运行时AI聊天机器人集成器——适用于ElevenLabs和OpenAI文本转语音
技术详情
该插件通过处理音频输入生成语音素,为MetaHuman(以及自定义)角色提供实时唇同步。
该插件依赖于onnxruntime库(MIT授权)作为跨平台原生机器学习加速器,用于唇同步推断。它利用了 UE 5.6+ 自带的 NNERuntimeORT 插件,提供 onnxruntime 功能。
该插件内部基于音频输入生成词素(音素的视觉表示)或面部控制数据,提供三种模型:标准模型(14个词素,适用于所有字符)、现实模型(81个面部控制,MetaHuman独占)和情绪驱动现实模型(情感表达,含12种情绪,MetaHuman独有)。
特色:
- 简单直观的设置
- 实时和离线视素生成
- 具有12种情绪的情绪表达控制
- 通用语言支持——通过音频分析支持任何口语语言
- 多音频输入源(麦克风、播放、合成语音,如ElevenLabs或OpenAI、定制PCM、像素流媒体)
- 与MetaHuman面部动画系统直接集成
- 支持角色系统(Daz Genesis 8/9,Reallusion CC3/CC4,Mixamo,ReadyPlayerMe)
- 兼容基于FACS的混合形状、ARKit标准和自定义形态目标
- 可配置插值设置
- 蓝图友好实现
- 不需要外部依赖或网络连接
兼容性
支持的虚幻引擎版本5.0 – 5.7
声明:分享资源来源于公开互联网搜集和网友提供,仅用于学习和研究使用,不得用于任何商业或者非法用途,其版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容! 版权归原作者及其公司所有,如果你喜欢该资源,请支持并购买正版,得到更好的服务。
