首先,安装所需的依赖库:
pip install -r api/requirements.txt
要启动 TTS API 服务,有两种方式:
-
使用
fastapi
命令:fastapi dev api/tts_api.py --host 0.0.0.0 --port 8001
-
直接运行 Python 脚本:
python api/tts_api.py
启动服务后,运行客户端脚本来测试 API:
python api/tts_client.py
生成的 Wav 音频文件会保存在 output
文件夹下。
- 基础 URL:
http://localhost:8001
- API 文档: http://localhost:8001/docs
- 更换模型: http://localhost:8001/change_model
- 模型预测: http://localhost:8001/tts_response
- 更换模型: 用于切换当前 TTS 模型。
- 模型预测: 用于请求 TTS 生成音频。
要启动 LLM API 服务,有两种方式:
-
使用
fastapi
命令:fastapi dev api/llm_api.py --host 0.0.0.0 --port 8002
-
直接运行 Python 脚本:
python api/llm_api.py
启动服务后,运行客户端脚本来测试 API:
python api/llm_client.py
- 基础 URL:
http://localhost:8002
- API 文档: http://localhost:8002/docs
- 更换模型: http://localhost:8002/change_model
- 模型预测: http://localhost:8002/llm_response
- 更换模型: 用于切换当前 LLM 模型。
- 模型预测: 用于请求 LLM 生成文本。
要启动 Talker API 服务,有两种方式:
-
使用
fastapi
命令:fastapi dev api/talker_api.py --host 0.0.0.0 --port 8003
-
直接运行 Python 脚本:
python api/talker_api.py
启动服务后,运行客户端脚本来测试 API:
python api/talker_client.py
生成的 mp4 音频文件会保存在 output
文件夹下。
- 基础 URL:
http://localhost:8003
- API 文档: http://localhost:8003/docs
- 更换模型: http://localhost:8003/change_model
- 模型预测: http://localhost:8003/talker_response
- 更换模型: 用于切换当前 Talker 模型。
- 模型预测: 用于请求 Talker 生成对话。
可以通过运行提供的客户端脚本(tts_client.py
, llm_client.py
, talker_client.py
)来测试各个 API。确保相应的 API 服务已经在指定的端口上运行。
请检查 API 服务的日志以获取详细的错误信息。如果出现问题,确保请求格式和内容符合 API 文档中的规范。
当前示例 API 文档中未提及认证。如果有认证需求,请根据实际情况添加相应的认证机制,并更新文档说明。
启动 API 服务后,可以在以下 URL 中查看 API 文档:
- TTS API: http://localhost:8001/docs
- LLM API: http://localhost:8002/docs
- Talker API: http://localhost:8003/docs