DeepSeek过年期间火爆了,假期一直热度不断,学习了几个关于DeepSeek的使用要点。
DeepSeek-R1 是一款强化学习(RL)驱动的推理模型,解决了模型中的重复性和可读性问题。在 RL 之前,DeepSeek-R1 引入了冷启动数据,进一步优化了推理性能。它在数学、代码和推理任务中与 OpenAI-o1 表现相当,并且通过精心设计的训练方法,提升了整体效果。【引用硅基流动平台的介绍】
(一)指令不需要那么繁琐了,要简单直接
DeepSeek-R1是一款推理模型,首先在提示词的使用上要进行调整,尽量舍弃AI身份指令,直接引导推理,去掉#角色#背景#目标#限制等指令,简单直接说人话。
DeepSeek-R1最好的提示词组成:
1、要做什么?
2、做这个干什么用?
3、希望达到什么效果?
4、但是我担心什么问题
场景化模板:“我要【目标】,给【对象】用,希望达到【效果】,但担心【问题】...”。
风格迁移模板:“模仿【作家名】的【文体】写关于【主题】的【内容类型】”。
例如:用金庸的武侠小说风格,描写一段程序员使用DeepSeek-R1高效编程的场景。
(二)说人话/用小学生能听懂的话
在之前的大模型对话中,在提示词的末尾添加”思考后再回答“的规则依然适用,添加的提示词是”说人话“,不是所有场景都适用。
也可以“用小学生能听懂的话解释【专业术语】”,例如:用小学生能听懂的话解释RLHF。
(三)多轮对话存在缺陷
DeepSeek-R1官方的论文中提到了多轮对话的问题,在与R1进行多轮对话时,虽然上下文长度是64K,但是在长时间多轮对话后,R1会忘记前面的内容。
(四)在多次对话中反问大模型
(五)如果返回效果不理想,如何继续对话
遇到不理想回答时补充信息:
"刚才关于光伏发电的解答太专业了,能否用生活化的比喻再解释一次?"
需要避免的情况:
- 模糊表述:"这个怎么做?"
- 同时问多个问题:"怎样备考公务员又准备考研还能找工作?"
- 缺乏关键信息:"为什么我的代码报错?"(未提供代码和错误信息)
记住:提供越具体的上下文(如:知识水平/使用场景/特殊要求),得到的回答会越精准。例如:"请用小学生能听懂的方式,解释为什么下雨后会出现彩虹"
- 如果对我的回答有疑问,随时可以用以下方式追问:
"能否举个现实中的例子?" - "如果是[某种特殊情况]应该怎么处理?"
- "你提到的XX概念能否用更简单的方式解释?"