Changelogs
Ollama 现已接入
自行部署 Ollama 服务后,在provider.json配置 ollama 请求器为你的服务地址,修改 model
为你要使用的模型名称。启动 QChatGPT 后使用 !ollama pull <模型名称>
拉取模型并使用。
- 具体参考命令用法
模型切换命令
!model
命令现在可以在运行期间切换使用的模型,并且会更新到配置文件中。
- 提醒:!model 命令列出的模型来自
llm-models.json
元数据,某些模型由于您未填写相应 requester 和 密钥组 配置,可能无法正常使用 - 具体参考命令用法
允许自定义命令前缀
现在允许用户自定义命令的前缀。
- 具体参考command.json
新增 RequesterRunner 组件抽象
现有的 Runner 为 local-agent
,这个层的组件负责 组合 Prompt、编排工具、多轮 Agent 调用等逻辑。如果您需要自行实现 知识库、LangChain、Dify 等外部请求平台的接入,可以实现这个组件。
- 具体参考组件扩展
插件 API 完善
EventContext 新增 reply
和 send_message
两个方法。
- 具体参考API参考
What's Changed
- Feat: Ollama平台集成 by @canyuan0801 in #844
- fixed pkg\provider\entities.py\get_content_mirai_message_chain中ce.type图片类型不正确的异常 by @ElvisChenML in #845
- Fixed aiocqhttp mirai.Voice类型无法正确传递url及base64的异常 by @ElvisChenML in #856
- Feat: Runner 组件抽象 by @RockChinQ in #857
- Release: 3.3 by @RockChinQ in #847
New Contributors
- @canyuan0801 made their first contribution in #844
- @ElvisChenML made their first contribution in #845
Full Changelog: v3.2.4...v3.3.0