一文教你如何本地部署DeepSeek
更新时间:2025年02月05日 15:28:47 作者:大道戏
这篇文章主要为大家详细了如何实现本地部署DeepSeek,文中通过示例代码和图片进行了详细的介绍,具有一定的借鉴价值,希望对大家有所帮助
第一步:安装ollama
打开官网,选择对应版本
第二步:选择合适的模型
模型名称中的 1.5B、7B、8B 等数字代表模型的参数量(Parameters),其中 B 是英文 Billion(十亿) 的缩写。参数越多,模型通常更“聪明”(能处理更复杂的任务),但对硬件资源(显存、内存)的要求也更高。
个人用户可优先 7B(通用性最佳),若设备较弱则选 1.5B,开发者可选 8B。
第三步:安装deepseek模型
ollama run deepseek-r1:1.5b
1、找到对应的命令,复制
2、cmd执行命令,等待安装
第四步:测试
基本命令
#退出模型 >>> /bye #查看模型 C:\Users\chk>ollama list NAME ID SIZE MODIFIED deepseek-r1:1.5b a42b25d8c10a 1.1 GB 3 minutes ago #启动模型 ollama run deepseek-r1:1.5b >>> #查看帮助 C:\Users\chk>ollama -h Large language model runner Usage: ollama [flags] ollama [command] Available Commands: serve Start ollama create Create a model from a Modelfile show Show information for a model run Run a model stop Stop a running model pull Pull a model from a registry push Push a model to a registry list List models ps List running models cp Copy a model rm Remove a model help Help about any command Flags: -h, --help help for ollama -v, --version Show version information Use "ollama [command] --help" for more information about a command.
到此这篇关于一文教你如何本地部署DeepSeek的文章就介绍到这了,更多相关本地部署DeepSeek内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!
相关文章
如何配置openai的返回Stream数据并转发到h5页面按markdown格式流式输出(最新推荐)
这篇文章主要介绍了如何配置openai的返回Stream数据并转发到h5页面按markdown格式流式输出,本文通过示例代码演示如何使用OpenAI API来实现流式输出并分段加载,需要的朋友可以参考下2023-05-05elasticsearch如何使用Ngram实现任意位数手机号搜索
Ngram是一种基于统计语言模型的算法,Ngram基本思想是将文本里面的内容按照字节大小进行滑动窗口操作,形成长度是N的字节片段序列,这篇文章主要介绍了elasticsearch使用Ngram实现任意位数手机号搜索,需要的朋友可以参考下2024-05-05
最新评论