i️ 注:包含插件示例的图片和演示项目均使用运行时音频导入器和/或运行时文本转语音/运行时AI聊天机器人集成插件创建。所以,要遵循这些例子,你还需要安装这些插件。不过,你也可以自己实现音频输入解决方案,而不使用它们。

 

🗣️ 满足每个项目需求的三种高级型号!

 

让你的元人类和自定义角色焕发生机,零延迟、实时对口型同步!现在推出了三款符合您项目需求的优质型号:

 

🌟 情绪驱动的真实模型——为拥有12种不同情绪的MetaHuman角色提供情感感知面部动画

🌟 真实模型——专为更自然的口腔动作(81个面部控制)的MetaHuman角色提供更强的视觉真实度)

⚡️ 标准模型——广泛兼容元人类和自定义字符(14个字义)

 

通过无缝、实时的口型同步,完全离线跨平台运行,改造你的数字角色!观看角色如何自然地回应语音输入,创造出沉浸且可信的对话,且只需极少的设置。

 

快速链接:

 

最新视频教程:

高质量(逼真模型)教程:

标准模型教程:

总体设置:

 

🚀 主要特点:

 

🌟 搭配以下设备效果很好:

  • 运行时音频导入器——用于麦克风采集和音频处理
  • 运行时文本转语音——适用于本地(离线)文本转语音
  • 运行时AI聊天机器人集成器——适用于ElevenLabs和OpenAI文本转语音

    技术详情

    该插件通过处理音频输入生成语音素,为MetaHuman(以及自定义)角色提供实时唇同步。

     

    该插件依赖于onnxruntime库(MIT授权)作为跨平台原生机器学习加速器,用于唇同步推断。它利用了 UE 5.6+ 自带的 NNERuntimeORT 插件,提供 onnxruntime 功能。

     

    该插件内部基于音频输入生成词素(音素的视觉表示)或面部控制数据,提供三种模型:标准模型(14个词素,适用于所有字符)、现实模型(81个面部控制,MetaHuman独占)和情绪驱动现实模型(情感表达,含12种情绪,MetaHuman独有)。

     

    特色:

    • 简单直观的设置
    • 实时和离线视素生成
    • 具有12种情绪的情绪表达控制
    • 通用语言支持——通过音频分析支持任何口语语言
    • 多音频输入源(麦克风、播放、合成语音,如ElevenLabs或OpenAI、定制PCM、像素流媒体)
    • 与MetaHuman面部动画系统直接集成
    • 支持角色系统(Daz Genesis 8/9,Reallusion CC3/CC4,Mixamo,ReadyPlayerMe)
    • 兼容基于FACS的混合形状、ARKit标准和自定义形态目标
    • 可配置插值设置
    • 蓝图友好实现
    • 不需要外部依赖或网络连接

    兼容性

    支持的虚幻引擎版本
    5.0 – 5.7
声明:分享资源来源于公开互联网搜集和网友提供,仅用于学习和研究使用,不得用于任何商业或者非法用途,其版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容! 版权归原作者及其公司所有,如果你喜欢该资源,请支持并购买正版,得到更好的服务。