5个最流行的开源ASR模型
自动语音识别,也称为语音转文本 (STT)或自动语音识别(ASR),已经存在了几十年,但过去二十年硬件和软件方面的进步,尤其是人工智能方面的进步,使这项技术比以往任何时候都更加强大和易于访问。
开源 STT 模型的出现大大普及了对高级 ASR 功能的访问。如今,这些模型可以提供可定制且经济高效的解决方案,将语音识别集成到应用程序中。
然后,开发人员可以轻松从这项现代技术中受益匪浅,根据特定用例进行定制,而不受专有软件许可的限制 - 甚至为其发展做出贡献。在可用于构建语音驱动应用程序的众多替代方案中,哪一种最适合你的需求?
在本文中,我们将介绍最先进的开源 ASR 模型,包括 Whisper ASR、DeepSpeech、Kaldi、Wav2vec 或 SpeechBrain,重点介绍它们的主要优势和技术要求,
1、什么是语音转文本模型?
现代 ASR 可以非常可靠地将口语转录为数字文本格式,从而更轻松地分析、存储和处理音频数据,适用于电信、医疗保健、教育、客户服务和娱乐等行业的各种应用。
当今大多数领先的 ASR 模型都是围绕编码器-解码器架构构建的。编码器从输入中提取听觉特征,解码器将特征重构为自然语言序列。
利用这种架构,这些模型可以实现接近人类水平的音频和视频记录转录,例如访谈、会议和讲座,甚至可以实时转录;它有助于将语音查询或命令转换为可操作的数据,从而增强用户体验和客户服务应用程序的效率。
更广泛地说,ASR 系统有助于开发语音控制应用程序、虚拟助手和智能设备,通过语音驱动的命令实现免提交互。
在选择企业使用的最佳开源语音转文本模型时,我们尝试选择准确且性能良好(即在实际场景中运行良好)的模型,以及具有高灵活性、可定制性和可集成性的开发工具包。在我们的选择中,重要的是观察良好的社区支持和发展,尽量避免“死亡”项目。
1、Whisper ASR
Whisper 是 OpenAI 的开源语音识别系统,使用从网络收集的 680,000 小时多语言和多任务监督数据的大型多样化数据集进行训练。Whisper 可以将语音转录为英语和其他几种语言,也可以将几种非英语语言直接翻译成英语。
Whisper 使用基于编码器-解码器转换器架构的端到端方法,将音频分割成 30 秒的片段,然后将其转换为对数梅尔频谱图,然后传入编码器,解码器从中预测相应的文本。该文本实际上与特殊标记混合在一起,这些标记指示模型执行语言识别、短语级时间戳、多语言语音转录和英语翻译等任务。我们在这里更详细地介绍了 Whisper 的工作原理,并在这里回答了一些有关 Whisper 的常见问题。
Whisper 被广泛认为是最好的开源 ASR,它具有多种优势,使其成为一个强大而有用的语音识别系统。
首先,它的默认准确度是最好的。得益于其庞大而多样的训练数据,它可以处理各种口音、背景噪音和技术语言。它还可以用一个模型执行多项任务,例如转录和翻译语音,这减少了对大多数其他模型所需的单独模型和管道的需求——例如,如果您想转录法语文本并实时将其翻译成英语。此外,Whisper 可以在不同的语音领域和语言上实现高精度和高性能,甚至无需额外的微调。
缺点是,OpenAI 提供的 Whisper 的“原始”版本旨在用作研究工具,并且有一些限制,使其不适合大多数需要企业规模和多功能性的项目。该模型有输入限制,不包括说话人日记和单词级时间戳等基本功能,并且倾向于产生幻觉,使其输出不适合高精度 CRM 丰富和 LLM 支持的任务。
2、DeepSpeech
DeepSpeech是一个开源的语音识别系统,2017 年 Mozilla 开发,基于百度的同音词算法。
DeepSpeech 使用深度神经网络将音频转换为文本,并使用 N-gram 语言模型来提高转录的准确性和流畅性。这两个模块都是从独立数据中训练出来的,可以作为转录器与拼写和语法检查器结合使用。DeepSpeech 既可以用于训练,也可以用于推理,并且支持多种语言和平台。除了支持多种语言之外,DeepSpeech 还具有相当灵活、尤其是可重新训练的优势。
话虽如此,与后来出现的 Whisper 等最先进的技术相比,DeepSpeech 存在严重的实际限制。正如 Mozilla 关于 DeepSpeech 的论坛所讨论的那样,它的录音时间仅限于 10 秒,这限制了它只能用于命令处理等应用,而不能用于长转录。
此外,这个限制还影响了文本语料库,结果非常小,大约每句 14 个单词/~100 个字符。随后,开发人员报告称,需要拆分句子并删除常用单词和子句子以加速训练。截至 2024 年 4 月,有人提议将录音时间延长至 20 秒,但即便如此,这似乎也与最先进的技术相去甚远。
3、Wav2vec
Wav2vec 来自巨头 Meta,是一款语音识别工具包,专门用于使用未标记数据进行训练,旨在尽可能多地覆盖语言空间,涵盖通常用于监督训练的带注释数据集中代表性较差的语言。
Wav2vec 背后的动机是,ASR 技术仅适用于全球数千种语言和方言中的一小部分,因为传统系统需要对大量带转录注释的语音音频进行训练,而对于每种可能的语音形式,不可能获得足够的数量。
为了实现其目标,wav2vec 模型是围绕一个自监督模型构建的,该模型经过训练可以将微小(25 毫秒)的掩蔽音频单元预测为标记,类似于大型语言模型如何训练以预测短音节类标记,但目标是与单个声音相对应的单元。由于可能的单个声音集比音节声音集小得多,因此该模型可以专注于语言的构建块,并使用单个处理核心“理解”更多内容。
据 Meta 的 AI 团队研究,上述对音频的无监督预训练可以很好地跨语言迁移。然后,对于将音频处理链接到实际文本的最后一步,Wav2vec 模型需要使用标记数据进行微调。但在这个阶段,它需要的音频转录对大约少 2 个数量级。
据称,截至 2020 年,以这种方式训练的 ASR 系统的表现可以超越最好的半监督方法,即使标记的训练数据少了 100 倍。虽然与新模型进行更现代的比较是可取的,但这仍然令人印象深刻,并且可能会找到应用,特别是作为处理代表性不足的语言的音频的开源解决方案。
在实践中,你可以使用自定义标记或未标记的数据训练 Wav2vec 模型,也可以简单地使用他们预先制作的模型,这些模型已经涵盖了大约 40 种语言。
4、Kaldi
Kaldi 是一个用 C++ 编写的语音识别工具包,其理念是拥有易于修改和扩展的现代灵活代码。重要的是,Kaldi 工具包试图以最通用和模块化的形式提供其算法,以最大限度地提高灵活性和可重用性(甚至对 Kaldi 自身范围之外的其他基于 AI 的代码也是如此)。
Kaldi 并非完全是开箱即用的 ASR 系统,而是帮助开发人员构建语音识别系统,这些系统可以利用广泛可用的数据库,例如语言数据联盟 (LDC) 提供的数据库。因此,基于 Kaldi 的 ASR 程序可以构建在普通计算机、Android 设备甚至通过 Web Assembly 在 Web 浏览器内运行。后者可能有些受限,但很有趣,因为它可以为完全跨设备兼容的 ASR 系统铺平道路,这些 ASR 系统内置在 Web 客户端中,根本不需要任何服务器端处理。
5、SpeechBrain
SpeechBrain 是一个“一体化”语音工具包。这意味着它不仅可以执行 ASR,还可以执行与对话式 AI 相关的整套任务:语音识别、语音合成、大型语言模型以及与计算机或聊天机器人进行自然语音交互所需的其他元素。
虽然 Python 和 Pytorch 在 OS ASR 生态系统中很常见(例如,Whisper 本身就是在 Pytorch 上训练的),但 SpeechBrain 是作为开源 PyTorch 工具包设计的,旨在让对话式 AI 的开发变得更加容易。
与大多数替代方案(尽管是开源的,但主要由私营部门推动)不同,SpeechBrain 源自全球 30 多所大学的强大学术背景,并拥有庞大的支持社区。该社区已在 40 多个数据集上分享了 200 多个竞争性训练方案,支持 20 个语音和文本处理任务。HuggingFace 上预先训练的 100 多个模型可以轻松插入和使用或微调。
重要的是,SpeechBrain 支持从头开始训练和微调预训练模型,例如 OpenAI 的 Whisper ASR 和 GPT2 大型语言模型,或 Meta 的 Wav2vec ASR 模型及其 Llama2 大型语言模型。
社区贡献没有太多控制的缺点是许多模型的质量可能值得怀疑;因此,可能需要进行大量测试以确保在企业环境中安全且可扩展地使用。
6、结束语
我们在这里回顾了企业使用的最佳 开源STT 模型,这些模型的选择是基于准确性和性能,以及软件开发流程中的灵活性、可定制性和可集成性,并且得到了良好的社区支持。
原文链接:Best open-source speech-to-text models
汇智网翻译整理,转载请标明出处