在复杂的声学应用场景中,语音信号易受到环境噪声与房间混响的影响,给自动语音识别和语音通信带来较大的干扰。尽管目前基于深度学习的单通道语音增强方法可有效抑制干扰成分,但这些方法的网络参数量较大且运算复杂度较高,难以应用于低功耗设备。
对此,中国科学院声学研究所噪声与振动重点实验室李安冬、研究员郑成诗等,提出一种基于卷积循环的单通道渐进语音增强方法,在保持增强性能不变的前提下,减小了参数量并降低了运算复杂度。相关研究成果线发表在上。
研究人员在卷积循环神经网络基础上将增强过程分解为多个子阶段,在每个子阶段中进行轻量级模块建模并提升一部分语音的信噪比,从而在后续阶段中能够把之前阶段的输出作为先验信息,逐步提升后续处理结果。同时通过在不同阶段复用lstm(long and short-term memory)模块的方式减小参数量。
实验结果表明,在仅采用3个阶段的情况下便可以达到和原有复杂卷积循环神经网络模型相近的性能。随着阶段数的增加,性能则会进一步提升。这种增强方法可用于低功耗设备上的噪声抑制与语音信息恢复。
研究工作得到国家自然科学基金的资助。
算法系统框图(图/声学所)