DeepSeek你真的会用吗?

DeepSeek R1使用要点,持续更新中!
2025年2月1日 单位
DeepSeek你真的会用吗?
郝彦飞

DeepSeek过年期间火爆了,假期一直热度不断,学习了几个关于DeepSeek的使用要点。

DeepSeek-R1 是一款强化学习(RL)驱动的推理模型,解决了模型中的重复性和可读性问题。在 RL 之前,DeepSeek-R1 引入了冷启动数据,进一步优化了推理性能。它在数学、代码和推理任务中与 OpenAI-o1 表现相当,并且通过精心设计的训练方法,提升了整体效果。【引用硅基流动平台的介绍

(一)指令不需要那么繁琐了,要简单直接

DeepSeek-R1是一款推理模型,首先在提示词的使用上要进行调整,尽量舍弃AI身份指令,直接引导推理,去掉#角色#背景#目标#限制等指令,简单直接说人话。


DeepSeek-R1最好的提示词组成:
1、要做什么?
2、做这个干什么用?
3、希望达到什么效果?
4、但是我担心什么问题

场景化模板:“我要【目标】,给【对象】用,希望达到【效果】,但担心【问题】...”。

风格迁移模板:“模仿【作家名】的【文体】写关于【主题】的【内容类型】”。
例如:用金庸的武侠小说风格,描写一段程序员使用DeepSeek-R1高效编程的场景。


(二)说人话/用小学生能听懂的话

在之前的大模型对话中,在提示词的末尾添加”思考后再回答“的规则依然适用,添加的提示词是”说人话“,不是所有场景都适用。

也可以“用小学生能听懂的话解释【专业术语】”,例如:用小学生能听懂的话解释RLHF。


(三)多轮对话存在缺陷

DeepSeek-R1官方的论文中提到了多轮对话的问题,在与R1进行多轮对话时,虽然上下文长度是64K,但是在长时间多轮对话后,R1会忘记前面的内容。


(四)在多次对话中反问大模型

R1对话时,通过多次重复的提示词,R1会猜测用户的意图。所以在使用R1时,尽量不要”绕弯子“,得不到想要的结果,就不断重复上面的提示词。


(五)如果返回效果不理想,如何继续对话

遇到不理想回答时补充信息:
"刚才关于光伏发电的解答太专业了,能否用生活化的比喻再解释一次?"

需要避免的情况:

  1. 模糊表述:"这个怎么做?"
  2. 同时问多个问题:"怎样备考公务员又准备考研还能找工作?"
  3. 缺乏关键信息:"为什么我的代码报错?"(未提供代码和错误信息)

记住:提供越具体的上下文(如:知识水平/使用场景/特殊要求),得到的回答会越精准。例如:"请用小学生能听懂的方式,解释为什么下雨后会出现彩虹"

  1. 如果对我的回答有疑问,随时可以用以下方式追问:
    "能否举个现实中的例子?"
  2. "如果是[某种特殊情况]应该怎么处理?"
  3. "你提到的XX概念能否用更简单的方式解释?"