6 Commits

Author SHA1 Message Date
yshtcn
59d3ba6d71 docs: 更新README以支持LM Studio服务器
- 更新项目背景和说明,加入LM Studio支持
- 新增多服务器支持特性说明
- 更新配置参数,添加LMS_URL参数
- 添加Ollama和LM Studio的部署示例
- 更新注意事项,说明服务器配置互斥关系
- 将唤醒功能标记为可选配置
2025-02-03 17:58:59 +08:00
yshtcn
f3944e5a62 feat: 增加LM Studio服务器支持
- 新增LM Studio服务器支持,可以通过--lms-url参数指定LM Studio服务器
- 优化wake-url参数为可选配置,不再强制要求配置唤醒服务器
- 根据服务器类型动态调整API端点路径
- 改进错误信息和日志输出,更好地区分服务器类型
- 重构配置验证逻辑,确保OLLAMA_URL和LMS_URL不会同时配置
20250203_1
2025-02-03 17:48:38 +08:00
yshtcn
7ca4144913 fix: 优化流式传输的超时处理
1. 移除流式传输的整体超时限制
2. 添加专门的超时错误处理
3. 避免与MODEL_TIMEOUT_SECONDS参数冲突
20250127_2
2025-01-27 18:40:15 +08:00
yshtcn
a40fbadf7b feat: 增强缓存功能
1. 添加可配置的缓存时间参数(--cache-duration)
2. 默认缓存时间从30分钟改为1天(1440分钟)
3. 支持通过环境变量CACHE_DURATION配置
4. 更新文档和配置示例
5. 修复了流式传输的问题
2025-01-27 18:35:30 +08:00
yshtcn
b8067e28a1 Remove GitHub Actions workflow 2025-01-23 00:21:41 +08:00
yshtcn
49b834ff93 Initial commit: Add Ollama Proxy project files 2025-01-23 00:13:12 +08:00