自学内容网 自学内容网

自监督学习在言语障碍及老年语音识别中的应用

          近几十年来针对正常言语的自动语音识别(ASR)技术取得了快速进展,但准确识别障碍(dysarthric)和老年仍然是一项极具挑战性的任务。障碍是一种由多种运动控制疾病引起的常见言语障碍类型,包括脑瘫、肌萎缩侧索硬化、中风和脑损伤。此外,诸如阿尔茨海默病(Alzheimer's disease, AD)之类的神经认知障碍也常常出现在有言语和语言障碍的老年人中

        针对言语障碍和老年用户需求定制的ASR技术不仅可以改善他们的生活质量,还可以实现大规模的神经认知障碍(例如AD)的自动早期诊断。

      本文通过探索一系列技术,将最新的单语言和多语言SSL预训练语音基础模型及其特征整合到混合TDNN和Conformer ASR系统中,以提高对言语障碍和老年语音的识别能力。这些技术旨在利用这些模型的多样性和互补性,提高对未见和覆盖不足单词的泛化性能,以及对非常低可懂度的最具挑战性的言语障碍语音数据的性能。

1 相关背景

1.1 失语症和老年语音识别的挑战

  • 与正常语音的差异性: 失语症和老年语音由于运动控制和衰老的原因,与正常语音存在较大差异,例如发音不精确、语音量和清晰度下降、流利度增加等。
  • 数据稀缺: 由于难以从有身体残疾和行动不便的说话者中收集数据,导致失语症和老年语音数据稀缺。
  • 说话者多样性: 失语症和老年说话者之间存在着巨大的差异,这使得 ASR 系统难以泛化到不同的说话者。

1.2 基于传统 ASR 技术的解决方案

  • 数据增强: 为了解决数据稀缺问题,研究人员开发了一系列数据增强技术,例如速度扰动和时间扰动等。
  • 领域自适应: 研究人员还研究了如何将通用的 ASR 系统进行领域自适应,以更好地处理失语症和老年语音。
  • 说话者自适应: 为了解决说话者多样性问题,研究人员研究了各种说话者自适应技术,例如直接参数微调和基于 LHUC 的说话者自适应等。
  • 多模态融合: 研究人员还探索了将视觉和语音运动特征等融入 ASR 系统的方法。

2 SSL模型在ASR中应用

自监督学习是一种无监督学习方法,它尝试从未标记的数据中学习表示,通过预测数据本身的某些属性或结构来作为监督信号。在语音识别的上下文中,SSL模型试图从原始语音信号中学习有用的特征表示,而不依赖于人工标注的转录文本。

2.1 SSL 预训练模型的选择

  • Wav2vec2.0: 一种基于对比学习的 SSL 预训练模型,可以学习语音表示和离散语音单元。
  • HuBERT: 一种基于聚类和预测的 SSL 预训练模型,可以学习语音表示和离散语音单元。
  • WavLM: 与 HuBERT 类似,但使用了门控相对位置偏置和混合语音输入。
  • Data2vec: 与 Wav2vec2.0 类似,但学习预测完整输入音频序列的潜在语音表示。
  • XLSR: 一种多语 SSL 预训练模型,可以学习跨语言的语音表示。

2.2 基于自监督学习 (SSL) 的 ASR 技术的优势

  • 自监督学习: SSL 技术可以训练出强大的语音表示,并且对领域不匹配具有鲁棒性。
  • 数据利用: SSL 模型可以有效地利用大量的未标记数据,这有助于解决数据稀缺问题。
  • 泛化能力: SSL 模型在处理未见过的或覆盖不足的词汇时具有更好的泛化能力。

3 ASR系统构建和组合

   本文将自监督学习 (SSL) 预训练的语音模型及其特征与传统的 ASR 系统进行组合和构建的方法,以应对失语症和老年语音识别的挑战。

3.1 ASR 系统组合

  • 帧级联合解码: 将使用不同特征训练的 TDNN 系统进行帧级联合解码,将每个系统的输出概率进行加权平均,以提高模型的鲁棒性。例如,可以将仅使用标准语音特征的 TDNN 系统与使用 SSL 特征的 TDNN 系统进行联合解码,利用两者在特征表示方面的互补性。
  • 跨系统多遍解码: 使用域内微调的 SSL 模型对 TDNN 或 Conformer 系统的 N-best 输出进行重新评分,进一步提高模型的准确率。例如,可以将 TDNN 系统的 N-best 输出使用域内微调的 HuBERT 模型进行重新评分,利用 HuBERT 模型在语言建模方面的优势。

3.2 ASR 系统构建

微调后的Wav2vec2.0/HuBERT模型及其特征整合到TDNN/Conformer ASR系统

3.2.1 TDNN 系统

  • 使用 TDNN 架构构建 ASR 系统,该架构由多个时间延迟层组成,可以有效地处理长时程依赖关系。
  • 使用 LHUC 技术进行说话者自适应,根据不同说话者的特征进行参数调整,以提高模型的泛化能力。
  • 使用标准语音特征(例如滤波器组)作为输入,并使用外部语言模型进行解码。

3.2.2 Conformer 系统

  • 使用 Conformer 架构构建 ASR 系统,该架构结合了卷积神经网络和 Transformer 模型,可以有效地提取语音特征并进行序列建模。
  • 使用标准语音特征(例如梅尔频率倒谱系数)作为输入,并使用外部语言模型进行解码。

3.2.3 多模态融合

  • 将 SSL 特征与 A2A 反转生成的语音运动特征进行融合,以构建多模态 ASR 系统。例如,可以使用 HuBERT 模型生成的语音表示作为 A2A 反转的输入,生成更通用的语音运动特征,并将其与标准语音特征进行融合。

4 实验

4.1 实验设置

4.1.1 数据集

  • UASpeech 数据集: 是一个公开可用的失语症语音数据集,包含 29 名说话者的 148,912 个句子,词汇量为 455 个。数据集被分为三个块,每个块包含一组常见的单词和一组不常见的单词。
  • TORGO 数据集: 是另一个公开可用的失语症语音数据集,包含 8 名失语症说话者和 7 名健康说话者的 13.5 小时语音数据。
  • DementiaBank Pitt 数据集: 是一个公开可用的老年语音数据集,包含 292 名老年参与者与临床调查员之间的 33 小时语音数据。数据集被分为训练集、开发集和评估集。
  • JCCOCC MoCA 数据集: 是一个公开可用的老年语音数据集,包含 256 名老年参与者与临床调查员之间的 32.4 小时语音数据。数据集被分为训练集、开发集和评估集。

4.1.2 基线模型

  • TDNN 系统: 使用 Kaldi 工具箱进行训练,包含 7 个上下文切片层,使用 40 维 Mel 频率倒谱系数作为输入,并使用外部语言模型进行解码。
  • Conformer 系统: 使用 ESPNet 工具箱进行训练,包含 12 个 Transformer 块,使用 40 维 Mel 频率倒谱系数作为输入,并使用外部语言模型进行解码。

4.1.3 SSL 模型微调

  • 单阶段微调: 仅使用域外正常语音数据或域内失语症或老年语音数据对 SSL 模型进行微调。
  • 双阶段微调: 首先使用域外正常语音数据对 SSL 模型进行微调,然后使用域内失语症或老年语音数据再次微调。
  • 多任务学习: 将 CTC 损失和注意力损失结合起来进行微调,以提高模型性能。

4.1.4  特征融合

  • 瓶颈模块: 将 SSL 模型的输出通过瓶颈模块进行压缩,以生成更紧凑的语音表示。
  • 特征融合: 将 SSL 特征与标准语音特征(例如滤波器组)进行融合,以利用两者的优势。

4.1.5 A2A 反转

使用基于 MDN 的 A2A 反转模型,将 SSL 特征转换为语音运动特征。

4.2 评估指标

4.2.1 词错误率 (Word Error Rate, WER)

  • WER 是衡量 ASR 系统识别准确率的指标。
  • WER 越低,说明 ASR 系统的识别准确率越高。

4.2.2 字符错误率 (Character Error Rate, CER)

  • CER 是衡量 ASR 系统识别准确率的另一个指标。
  • CER 越低,说明 ASR 系统的识别准确率越高。

4.2.3 隐蔽语言模型 (Masked Language Model, MLM)

  • MLM 是一种评估语言模型性能的指标。
  • MLM 越高,说明语言模型的预测能力越强。

4.2.4 下一句预测 (Next Sentence Prediction, NSP)

  • NSP 是一种评估语言模型理解能力的指标。
  • NSP 越高,说明语言模型对句子之间关系的理解能力越强。

4.2.5 AD 诊断准确率

  • 使用 BERT 或 Roberta 模型进行 AD 诊断,评估 ASR 系统对 AD 诊断的支持。
  •  准确率 (Accuracy)、灵敏度 (Sensitivity) 和特异性 (Specificity)。

4.3 实验结论

4.3.1 失语症语音识别

4.3.1.1 UASpeech 数据集

  • 基于域内微调的 HuBERT 模型,使用输入特征融合、帧级联合解码和多遍解码的方法,取得了 20.56% 的 WER,优于其他基线系统,包括单独微调的 HuBERT 模型和 Conformer 系统。
  • 将 HuBERT 特征与 A2A 反转生成的语音运动特征进行融合,进一步提高性能。

4.3.1.2 TORGO 数据集

  • 与 UASpeech 数据集的结果类似,域内微调的 HuBERT 模型结合了多种技术,取得了 18.07% 的 WER,优于其他基线系统。
  • 将 HuBERT 特征与 A2A 反转生成的语音运动特征进行融合,进一步提高性能。

4.3.2 老年语音识别

4.3.2.1 DementiaBank Pitt 数据集

  • 基于域内微调的 wav2vec2-conformer 模型,使用输入特征融合、帧级联合解码和多遍解码的方法,取得了 18.07% 的 WER,优于其他基线系统,包括单独微调的 wav2vec2-conformer 模型和 Conformer 系统。
  • 将 wav2vec2-conformer 特征与 A2A 反转生成的语音运动特征进行融合,进一步提高性能。

4.3.2.2 JCCOCC MoCA 数据集

  • 基于域内微调的 XLSR-128 模型,使用输入特征融合、帧级联合解码和多遍解码的方法,取得了 7.97% 的 CER,优于其他基线系统,包括单独微调的 XLSR-128 模型和 Conformer 系统。
  • 将 XLSR-128 特征与 A2A 反转生成的语音运动特征进行融合,进一步提高性能。

4.3.3  AD 诊断

  • 使用 ASR 系统输出的语音转录,提取文本特征,并使用 BERT 或 Roberta 模型进行 AD 诊断。
  • 基于 TDNN 系统的 ASR 模型,包括域内微调的 wav2vec2-conformer 或 XLSR-128 模型,取得了 83.94% 的 AD 诊断准确率,优于其他基线系统。

主要内容参考:Shujie.H et al., "Self-supervised ASR Models and Features For Dysarthric and Elderly Speech Recognition"


原文地址:https://blog.csdn.net/robinfang2019/article/details/140610604

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!