- VisualStudio2022插件的安装及使用-编程手把手系列文章
- pprof-在现网场景怎么用
- C#实现的下拉多选框,下拉多选树,多级节点
- 【学习笔记】基础数据结构:猫树
Sdcb Chats 是一个强大且易于部署的 ChatGPT 前端,旨在帮助用户轻松接入和管理各种主流的大语言模型.
Sdcb Chats 主要特性:
早在我首次发布时,Sdcb Chats 就已支持 DeepSeek。随着 DeepSeek-R1 的爆火,我们迅速跟进,在春节期间实现了对 DeepSeek-R1 思维链的两种形式的支持:
官方预处理型: 通过 reasoning_content 字段显示思维链,与 content 同级。官网和硅基流动(SiliconFlow)采用此方式。示例:
{"id":"0194e3241b719f91d183976240e08067","object":"chat.completion.chunk","created":1738977581,"model":"Pro/deepseek-ai/DeepSeek-R1","choices":[{"index":0,"delta":{"content":null,"reasoning_content":"嗯","role":"assistant"},"finish_reason":null,"content_filter_results":{"hate":{"filtered":false},"self_harm":{"filtered":false},"sexual":{"filtered":false},"violence":{"filtered":false}}}],"system_fingerprint":"","usage":{"prompt_tokens":17,"completion_tokens":1,"total_tokens":18}}
开源常见型: 通过 content 中的
在最新发布的 Sdcb Chats r-459 版本中,我们已全面支持这两种 DeepSeek-R1 思维链格式! 。
效果图:
此前文章已详细介绍了部署过程,此处重点介绍 Windows exe 部署:
考虑到国内访问 Docker 的不便,我们特地将 exe 部署文件上传至国内服务器,方便大家下载:
tài liệu | 下载链接 |
---|---|
chats-win-x64.7z | https://io.starworks.cc:88/chats/r459/chats-win-x64.7z |
chats-linux-x64.7z | https://io.starworks.cc:88/chats/r459/chats-linux-x64.7z |
chats-linux-arm64.7z | https://io.starworks.cc:88/chats/r459/chats-linux-arm64.7z |
chats-linux-musl-x64.7z | https://io.starworks.cc:88/chats/r459/chats-linux-musl-x64.7z |
chats-linux-musl-arm64.7z | https://io.starworks.cc:88/chats/r459/chats-linux-musl-arm64.7z |
chats-osx-arm64.7z | https://io.starworks.cc:88/chats/r459/chats-osx-arm64.7z |
chats-osx-x64.7z | https://io.starworks.cc:88/chats/r459/chats-osx-x64.7z |
chats-fe.7z | https://io.starworks.cc:88/chats/r459/chats-fe.7z |
chats.7z | https://io.starworks.cc:88/chats/r459/chats.7z |
Windows 用户推荐下载 chats-win-x64.7z,解压后双击 exe 即可运行.
Thử nghiệm:
运行成功后,默认用户:chats,默认密码:RESET!!!(请尽快修改).
提示: Sdcb Chats 更新频繁,可将链接中的 r459 替换为 latest 下载最新版,例如:https://io.starworks.cc:88/chats/latest/chats-win-x64.7z 。
Sdcb Chats 支持多平台部署,包括:
我们也支持 Docker 部署(我个人生产环境使用 linux-x64 Docker 部署).
由于 DeepSeek-R1 模型爆火,官网 API 极不稳定,甚至目前已暂停充值。我们推荐使用 SiliconFlow(硅基流动) 作为平替:
推荐 SiliconFlow 的理由:
reasoning_content
: SiliconFlow 与官网一样支持 reasoning_content
格式的思维链,保证了 API 的一致性。接入 SiliconFlow API 演示:
Thử nghiệm:
演示中创建的是 deepseek-ai/DeepSeek-R1 模型(免费额度),响应较慢(约 70 秒)。Pro/deepseek-ai/DeepSeek-R1 速度更快,但需充值(建议充值 1 元).
DeepSeek 官网 R1 的接入步骤类似.
以本地 Ollama 为例:
下载 DeepSeek-R1(7B, Q4 量化):
PS C:\Users\Administrator> ollama pull deepseek-r1 pulling manifest pulling 96c415656d37... 100% ▕████████████████████████████████████████████████████████▏ 4.7 GB pulling 369ca498f347... 100% ▕████████████████████████████████████████████████████████▏ 387 B pulling 6e4c38e1172f... 100% ▕████████████████████████████████████████████████████████▏ 1.1 KB pulling f4d24e9138dd... 100% ▕████████████████████████████████████████████████████████▏ 148 B pulling 40fb844194b2... 100% ▕████████████████████████████████████████████████████████▏ 487 B verifying sha256 digest writing manifest success PS C:\Users\Administrator> ollama ls NAME ID SIZE MODIFIED deepseek-r1:latest 0a8c26691023 4.7 GB 9 minutes ago
配置 Ollama 对外暴露地址: 例如 https://ollama.starworks.cc:88(默认 http://localhost:11434,我做了反向代理).
Ollama 的 OpenAI 兼容地址: https://ollama.starworks.cc:88/v1(密钥可随意填写,但不能为空).
配置步骤与 SiliconFlow 类似:
我使用纯 CPU 运行 Ollama 中的 DeepSeek-R1 7B(Q4),其实速度尚可,虽然结果不完全正确,但可玩性高.
注意: Ollama 的 API 推理响应使用
其他模型提供商的 Ollama: 可先指定为 Ollama 创建,然后在模型配置中填入正确的模型部署名称,比如阿里云DashScope,你可能需要这样配置模型(注意模型提供商): 效果相同. 感谢您对 Sdcb Chats 的关注!本次更新深度集成了 DeepSeek-R1 思维链,提升了 AI 透明度。我们全面支持官方及其他提供商的 API,提供灵活配置选项. 更新亮点: 我们特别优化了与 SiliconFlow 的集成,确保您顺畅接入 DeepSeek-R1. 下一步: 如果您尚未体验 Sdcb Chats,现在是最佳时机!我们提供详细的部署文档,助您快速上手. 支持我们! 。 如果您觉得 Sdcb Chats 有帮助,请在 GitHub 上 Star 我们!您的支持是我们前进的动力. 再次感谢您的支持,期待未来为您带来更多惊喜! 。 最后此篇关于SdcbChats重磅更新:深度集成DeepSeek-R1,思维链让AI更透明!的文章就讲到这里了,如果你想了解更多关于SdcbChats重磅更新:深度集成DeepSeek-R1,思维链让AI更透明!的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。Tóm tắt
reasoning_content
Và
Nhãn.
2021年2月, 编程语言的七国集团峰会在风景优美的Linux庄园如期召开。 C, Java, Python, JavaScript , C++ , C#, PHP 相继入座。 C语言作为主
摘要:《KubeEdge单集群突破10万边缘节点 | 技术报告》将会在6月25日即将开展的云原生边缘计算峰会(KubeEdge Summit 2022)中进行应用解析。我们先来一睹为快吧! 近日, 云
2024年6月21日,在华为开发者大会2024(HDC 2024)上,华为常务董事、华为云CEO张平安正式发布盘古大模型5.0,在全系列、多模态、强思维三个方面全新升级;张平安还分享了盘古大模型在
我想了解这个 Scala 脚本是如何工作的: #!/usr/bin/env bash exec scala "$0" "$@" !# object HelloWorld { def main(
Tôi là một lập trình viên xuất sắc, rất giỏi!