很多用户发现,目前市面上的AI模型(包括DeePseek R1、通义千问等)都有内容审核限制,在询问某些话题时可能会收到"超出范围"、"无法回答"等回复。今天,我们就来看看如何在本地部署一个无限制版本的DeepSeek R1!
📥 本地安装方法(越狱版)
第一步:准备所需文件
我已经为大家准备好了所有需要的文件,
安装包包含以下文件:
文件名 | 大小 | 用途说明 |
---|---|---|
1.Ollama | 763,249 KB | AI模型运行环境必装 |
2.客户端cherry-AI 或ChatWise | 1 KB | 一键启动脚本 |
3.本地模型或 APi | 9,328 KB | 本地模型为越狱版,api 为官方版 |
第二步:本地版安装教程
1.安装Ollama
1.WIN双击运行OllamaSetup.exe
,MAC运行安装 OllamaSetup.exe一路点击"下一步"完成安装即可。(如果你已经安装过Ollama,可以跳过这步)
2.解压安装包并运行安装程序,按照向导完成基本设置。
点击左下角开始菜单,右键-运行
输入cmd (MAC 打开终端)
输入ollama -h,敲回车键,检测是否安装成功
此显示为安装成功
2.安装聊天界面客户端 (推荐Cherry) 接下来,我们要用一个神奇的客户端——Cherry Studio 中文版 或ChatWise!不用担心,软件都打包在文件夹里了
Windows、MacOS、Linux系统都可以支持,简直不要太方便!😍 安装过程也超简单,一路点击“下一步”就好了!安装完成后,打开软件。
3.下载大模型到本地(请根据自己配置下载,模型越大要求越高)1.打开 CMD 运行代码(代码回复关键词获得,包括 8B 、14B 和 32B 代码)
4.配置模型
模型下载好后进入Cherry 设置界面,点击管理按钮。
添加使用Ollama 下载的模型即可
看,就是这么简单!现在你可以开始和完全无限制的DeepSeek R1愉快地交谈了:
📥 API 方法(在线版)
1.首先,你需要去注册一个账号获取 API,
地址在这儿:https://cloud.siliconflow.cn/i/yheIZTQN
注册之后,你会获得2000万Tokens的免费额度!这个额度足够你玩一阵子了!😉
2.注册完成后,登录个人中心,找到你的API key,把它复制下来,稍后我们要用到它!
3.还是打开客户端>设置>硅基流动,点击获取按钮登录刚才注册账号即可。
还没有评论,来说两句吧...