语音合成技术近年来取得了显着进步,特别是在语音克隆、语音助手、配音服务和有声读物等领域。然而,如何让合成的语音更具情感,更贴近人类的真实表达,一直是这一领域的重要研究方向。今天,我们将为大家介绍一款由网易有道推出的开源TTS(Text-to-Speech)模型——EmotiVoice。这款强大的开源引擎不仅完全免费,还支持中英文双语,并提供超过2000种独特音色以及特色的情感合成功能。
EmotiVoice的核心优势在于其能够生成包含多种情感的语音,如快乐、兴奋、悲伤和愤怒等。这使得它在众多应用场景中脱颖而出,无论是个人开发者还是企业用户,都能从中受益。以下是EmotiVoice的主要功能:
首先,多语言多音色的支持是其一大亮点。该模型支持英语和中文两种语言,并提供超过2000种独特的音色选择,极大地丰富了语音合成的可能性。其次,EmotiVoice具备多种情绪模拟能力,可以轻松生成带有开心、伤心、愤怒、平静、惊讶和害羞等多种情感的语音,为用户提供更加真实和丰富的听觉体验。
此外,EmotiVoice还提供了语音克隆功能,用户可以通过私有音频数据定制专属音色。这一功能对于需要个性化语音服务的应用场景尤为有用。同时,提示控制生成功能允许用户利用提示词精调语音风格与表达,从而更好地满足特定需求。
为了方便使用和集成,EmotiVoice还提供了Web界面和OpenAI兼容API。这意味着用户可以通过网页操作界面直接体验其强大的TTS功能,或者通过API将其无缝集成到现有的系统中。
对于想要快速体验EmotiVoice的用户,最简单的方法是运行Docker镜像。只需执行以下指令即可启动EmotiVoice镜像:docker run -dp 127.0.0.1:8501:8501 syq163/emoti-voice:latest
。如果需要更新镜像,可以使用docker pull syq163/emoti-voice:latest
命令。当Docker运行成功后,打开浏览器并导航到http://localhost:8501
,就可以直接体验EmotiVoice的强大功能。
另一种常见的部署方式是本地安装。首先创建一个名为EmotiVoice的conda环境并激活它,然后安装所需的Python库,如torch、numpy、scipy等。接下来,下载模型文件并运行Web界面。具体步骤包括安装git-lfs工具,克隆模型仓库,最后运行streamlit run demo_page.py
命令启动Web界面。
更多详细的部署指南可以在GitHub的Wiki页面找到,帮助用户更顺利地完成整个过程。
许多人对人工智能语音的印象仍然停留在“导航播报”、“机械客服”和“系统提示音”这些缺乏温度的场景中。然而,随着像EmotiVoice这样的多情感TTS模型的出现,我们开始意识到人工智能不仅仅是能说话,它还能“像人一样”说话。它可以为孩子讲述故事,为用户提供情感上的安慰,为创作者激发灵感,甚至为逝去的声音留下回响。
更重要的是,EmotiVoice是一款完全免费开源且灵活易接入的工具,摆脱了商业封闭的束缚。如果你正在寻找一个功能强大、质量高且部署方便的开源TTS系统,不妨尝试一下这款由网易推出的开源TTS引擎。它可能会为你带来意想不到的惊喜和价值。
快速使用
想要体验 EmotiVoice 最简单的方法就是运行 Docker 镜像。
运行 EmotiVoice 镜像指令:
docker run -dp 127.0.0.1:8501:8501 syq163/emoti-voice:latest
Docker 镜像更新指令:
docker pull syq163/emoti-voice:latestdocker run -dp 127.0.0.1:8501:8501 -p 127.0.0.1:8000:8000 syq163/emoti-voice:latest
如果Docker运行成功,就可以打开浏览器,导航到 http://localhost:8501
,之后可以直接体验EmotiVoice强大的TTS功能。
另外一种大众的部署方式,就是本地安装。
conda create -n EmotiVoice python=3.8 -yconda activate EmotiVoicepip install torch torchaudiopip install numpy numba scipy transformers soundfile yacs g2p_en jieba pypinyin pypinyin_dictpython -m nltk.downloader "averaged_perceptron_tagger_eng"
下载模型文件
git lfs installgit lfs clone https://huggingface.co/WangZeJun/simbert-base-chinese WangZeJun/simbert-base-chinese# 或者下面的下载方式git clone https://www.modelscope.cn/syq163/WangZeJun.git
运行Web界面
streamlit run demo_page.py
更多细节指南可以去 GitHub 的 Wiki 进行参考操作。
写在最后
很多人对AI语音的印象,还停留在“导航播报”“机械客服”“系统提示音”这些没有温度的场景中。
但随着 EmotiVoice 等多情感TTS模型的出现,我们开始意识到AI不只是能说话,它还能“像人一样”说话。
它可以为孩子讲故事、为用户安慰心情、为创作者激发灵感、为逝去的声音留下回响。
而且,它还是完全免费开源、灵活易接入的工具,不再被商业封闭所束缚。
如果你正在找一个功能强、质量高、部署方便的开源 TTS 系统,不妨试试网易这款开源TTS引擎。
GitHub 项目地址:https://github.com/netease-youdao/EmotiVoice