口形同步

[最近更新时间:2019/01/18]

 

识别口形同步参数

您可以使用口形同步效果将口形同步行为应用于您的模型。
要应用口形同步效果,请执行以下操作:

・与 .model3.json 文件中描述的应用口形同步效果值的参数相关联

・通过语音输入、动作或其他方法将数值传递给口形同步效果

其中,将参数与 .model3.json 文件中描述的口形同步效果相关联的信息是
可以通过继承ICubismModelSetting类的CubismModelSettingJson类获取。

 

选中“眨眼设定”以将定义放入 .model3.json 文件中。
如果在 Editor 上设定了自动眨眼和口形同步的设定,然后输出,.model3.json 文件将描述如下。

 

 

3种方法来做口形同步

口形同步大致分为以下三种类型。

1.一种实时获取成交量并直接指定开合度的方法

通过某种方式获取音频电平,并根据目标参数指定音阶。
实现实时口形同步。

在 Native (C++) CubismModel :: Update 函数或 Web (TypeScript) CubismModel.update 函数之前
本机 (C ++) CubismModel :: SetParameterValue 函数,或 Web (TypeScript) CubismModel.setParameterValue 函数
您可以通过直接在 Native (C++) 的 CubismModel :: AddParameterValue 函数或 Web (TypeScript) 的 CubismModel.addParameterValue 函数的第二个参数中设定一个 0 到1的值来控制张嘴的程度。

对于iPhone / Android2.3或更高版本(*),您可以实时获取播放过程中的音量。
您可以通过将播放期间获取的音量值处理到 0..1的范围并使用上述命令设定该值来进行口形同步。
(因为嘴巴的开合是按照标准参数设定用0到1的参数创建的)

如果要设定的值小于 0 或大于1,则不会发生错误,但在这种情况下,口形同步可能无法正常工作。
(*):对于 Android 2.2 及更早版本,无法在运行时获取正在播放的音量。
其他平台能否实时获取音量取决于音频播放库。

如何使用 iPhone:AVAudioPlayer 类
如何登陆安卓:可视化类

 

2.一种使用带有信息的运动进行口形同步的方法

这是一种通过在Editor上工作将声音的运动融入运动本身的方法。
有关如何将口形同步动作添加到动作的信息,请参阅“使用 BGM 和音频创建场景”
如果您使用 Native (C ++) CubismMotion :: SetEffectIds 函数或 Web (TypeScript) CubismMotion.setEffectIds 函数在播放前设置口形同步和眨眼参数。
CubismMotion 在实例的参数更新过程中,将其替换为目标参数后播放运动。

 

 

3.使用仅信息运动进行口形同步的方法(本机)

它是一种准备运动管理器的方法,该运动管理器专门处理 2 中处理的运动并且只控制嘴。
当您想将口形同步与身体和头部运动分开时,这很有用。

3.使用仅信息动作进行口形同步的方法(Web)

它是一种准备运动管理器的方法,该运动管理器专门处理 2 中处理的运动并且只控制嘴。
当您想将口形同步与身体和头部运动分开时,这很有用。

© 2010 - 2022 Live2D Inc.