deepseek 调参
在 Ollama 下,deepseek 常用参数有以下几项
| 参数名 | 描述 | 推荐值范围 | 适用场景 |
|---|---|---|---|
temperature |
控制输出的随机性与创造力,值越高随机性越高 | 0.3~0.7 | 代码任务控制在 0.1 写作任务控制在 0.6 |
top-p |
核采样,控制候选词的范围,值越高词汇越多样 | 0.85~0.95 | 与 temperature 搭配,平衡生成质量 |
num_ctx |
上下文窗口大小,单位为 token,ai能看到的会话历史量 | 2048~8192 | 长文档分析则需要调高 |
repeat_penalty |
重复惩罚,值越高模型越倾向于不重复生成内容 | 1.1~1.3 | 1.0 时不惩罚 大于 1.5 时可能会把常用词也一起干掉 |
还有一些其他参数
| 参数名 | 描述 | 推荐值范围 | 适用场景 |
|---|---|---|---|
top_k |
固定保留概率最高的 k 个词,再重新归一化采样 | 1~100 | 现在用 top_p 多一点 |
num_predict |
本次生成最多输出的 token 数 | 200~2048 | 摘要为 200 写文章时为 1024 写代码时为 512~1500 |
stop |
数组,碰到任意一个字符串就立刻刹车 | ["\n", "User:", "问题:", "```"] |
放置模型“自问自答”或者把提示模板也写出来 |
要创建自定义模型,需要西安创建一个文本文件(如 ModelFile 或 ModelFile.deepseek),然后写入相关参数
1 | |
然后构建并运行该自定义模型
浓浓的 Docker 味。
1 | |
deepseek 调参
https://ivanclf.github.io/2025/12/09/deepseek-param/