DeepSeek软件作为一款极为全面且实用的AI智能工具,在国内外都十分火爆,它源自浙江的一家公司。在此,为大家精心整理了关于DeepSeek的常见使用问题汇总,希望能为大家提供帮助!


《DeepSeek》使用常见问题汇总
1、deepseek网页、app、调用api以及本地部署之间存在哪些区别呢?
①网页和app本质上没有差异,app其实就是套壳形式。
②api调用是借助接口来进行通信的,其实际能力和网页版本并无不同。
③本地部署所部署的并非满血的deepseek - r1,而是蒸馏模型,能力相对较弱。32b模型理论上具备满血r1 90%的能力。
2、酒馆具体是什么?
酒馆指的是SillyTavern,它是一个前端页面,需要调用模型的api或者ollama才能使用ai模型。
3、破限是什么意思?
ai自身存在道德墙或者道德限制,破限是突破ai内容审查的一种手段,通过一系列提示词可以绕过ai的内容审查。
4、为什么我的ai回复到一半就被撤回了呢?
这是因为你的回答涉及到了敏感话题,被二次审查过滤掉了。
5、如果我的ai有道德限制,该如何绕开呢?
可以使用群文件里的穿甲弹(考虑到大群本身不允许相关讨论,所以如果想要更多相关资源请前往无禁群)。
6、英伟达ai是否为满血状态?
英伟达部署的ai是满血671b,但ai的响应速度会比正常的deepseek官方版本慢,这种情况主要体现在处理长文时。
7、deepseek是否有上下文限制?能否突破这个限制呢?
是有上下文限制的。例如,在cherry中调用api时,可以在模型设置里快捷修改上下文数。
8、我该如何进行本地部署呢?
详细内容请参考B站up主NathMath的视频,视频编号为BV1NGf2YtE8r。
DeepSeek R1推理模型完全本地部署教程:
9、本地部署时,我该如何选择最适合我的模型大小呢?
可参考上一条NathMath的视频。简单来讲,当你拥有独立显卡(最好是N卡)时,内存大小加上显存大小就是最合适的模型大小,选择与之最相近的模型即可。比如,你使用的是4050(8G显存)加上16G内存,那么选择14b模型会比较合适。
10、在cherry studio里面链接好之后该怎么做呢?
在cherry studio里设置好链接后,回到主界面,主界面上方可以选择模型。英伟达的deepseek名为deepseek - ai/deepseek - r1。
11、.md格式的文件该如何使用呢?
.md格式文件是用Markdown格式编写的纯文本文件,建议安装Typora来对这类文件进行查看和编辑。当然,vs code也能够打开这类文件。
12、Git和nodejs可以放在其他盘吗?
最好不要这么做。因为后续进行其他配置时可能会出现报错的情况。
13、360纳米ai里面的deepseek是满血的吗?
不是的,它连32b都未达到,表现比较差,建议不要使用。
14、为什么我的ai越到后面运行越慢呢?
ai的计算量会随着文本量的增加而递增,所以越用越慢是正常现象,可以新开一个对话来解决。
15、ds在对话中输出纯空白是因为什么呢?
这是由于受到了外网攻击。
16、对话记录最多能保存多长时间呢?
api的对话记录保存在你使用的api软件里,也就是本地,只要你不删除文件,保存时长是无限的。而网页和app版本至今未进行删除操作,所以不确定具体的保存时间。
17、网页版或者APP版是671b吗?
是的。
18、chatbox这些可以直接接api吗?
目前无法调用官网api。


























