久远:一个开发中的大模型语音助手,当前关注易用性,简单上手,支持对话选择性记忆和Model Context Protocol (MCP)服务。 KUON:A large language model-based voice assistant under development, currently focused on ease of use and simple onboarding. It supports selective memory in conversations and the Model Context Protocol (MCP) service.
久远,一个开发中的大模型语音助手。之前代码太臃肿,于是新分支重写,重点放在易用性上,使其成为一个实用的东西。
简约代码则不再使用本地模型,即使要本地化也使用接口方式对接本程序。大模型只对接openai
接口,其他厂商模型可以使用oneapi
的方式匹配。目前取消了语音输入,原因在于实在不常用。后续再考虑是否加入。使用MCP
来扩展助手能力。
目前功能:
后续计划:
conda create -n kuon python=3.10
conda activate kuon
git clone https://github.com/yourusername/kuon.git
cd kuon
pip install -r requirements.txt
对话密钥(必需)
# Windows (PowerShell)
$env:OPENAI_API_KEY = "您的OpenAI API密钥"
$env:OPENAI_BASE_URL = "API基础URL"
# Linux/macOS
export OPENAI_API_KEY="您的OpenAI API密钥"
export OPENAI_BASE_URL="API基础URL"
# Windows (PowerShell)
$env:ALIYUN_ACCESS_KEY_ID= ""
# Linux/macOS
export ALIYUN_ACCESS_KEY_ID=""
根目录的config.yaml
文件:
tts:
enabled: true # 是否启用TTS
engine: "aliyun" # TTS引擎选择,目前支持 "aliyun"
mcp:
enabled: true # 是否默认启用MCP工具
config_path: "mcp_server/temp_mcp_server.json" # MCP服务器配置文件路径
如需使用MCP功能,请参考mcp_server/temp_mcp_server.json
配置文件:
{
"mcpServers": {
"general": {
"type": "stdio",
"command": "执行命令",
"args": ["命令参数"],
"env": {
"OPENWEATHERMAP_API_KEY": "额外环境变量"
}
},
"mcp-hotnews-server": {
"type": "sse",
"url": "https://mcp.modelscope.cn/sse/"
}
}
}
运行主程序:
python kuon.py
程序启动后,直接输入文本与AI交互。输入"exit"或"quit"退出程序。
下图展示了与久远助手的实际交互效果:
目前对话记忆被直接存储在了chat_engines/memory.json
文件中,可以根据需求进行删改。
特别是存储了一些奇怪的东西时。
{ "mcpServers": { "kuon": { "command": "执行命令", "args": [ "命令参数" ] } } }
Related projects feature coming soon
Will recommend related projects based on sub-categories