What's Changed
- 新增:支持为 OpenAI API 提供商自定义请求头 (#3581)
- 新增:为 WebChat 为 Thinking 模型添加思考过程展示功能;支持快捷切换流式输出 / 非流式输出。(#3632)
- 新增:优化插件调用 LLM 和 Agent 的路径,为 Context 类引入多个调用 LLM 和 Agent 的便捷方法 (#3636)
- 优化:改善不支持流式输出的消息平台的回退策略 (#3547)
- 优化:当同一个会话(umo)下同时有多个请求时,执行排队处理,避免并发请求导致的上下文混乱问题 (#3607)
- 优化:优化 WebUI 的登录界面和 Changelog 页面的显示效果
- 修复:修复在知识库名字过长的情况下,“选择知识库”按钮显示异常的问题 (#3582)
- 修复:修复部分情况下,分段消息发送时导致的死锁问题(由 PR #3607 引入)
- 修复:钉钉适配器使用部分指令无法生效的问题 (#3634)
- 其他:为部分适配器添加缺失的 send_streaming 方法 (#3545)
Details
- feat: OpenAI 系模型提供商支持自定义添加请求头 by @bymoye in #3581
- fix: improve knowledge base chip display with truncation and styling by @Soulter in #3582
- feat(core.platform): 为部分适配器添加缺失的 send_streaming 方法 by @Dt8333 in #3545
- feat: changelog display improvement by @RC-CHN in #3601
- perf: improve streaming fallback strategy for streaming-unsupported platform by @Dt8333 in #3547
- refactor: streamline llm processing logic using session lock by @Soulter in #3607
- fix: deadlock when segmented reply feature is enabled by @Soulter in #3645
- fix(core.platform): 统一处理Dingtalk的UserID,修复Dingtalk UMO无法被正确解析的问题 by @Dt8333 in #3634
- fix: Provider.meta() error by @Soulter in #3647
- refactor: LLM response handling with reasoning content by @Soulter in #3632
- refactor: better invoke the LLM / Agent capabilities by @Soulter in #3636
- feat: enhance parameter type handling in LLM tool registration with JSON schema support by @Soulter in #3655
New Contributors
Full Changelog: v4.5.6...v4.5.7