1688拿货网

位置:1688拿货网 > 品牌百科

Deepseek怎么安装到本地电脑 Deepseek-R1部署需要什么配置

***近Deepseek火爆出圈,频频上了热搜榜。越来越多的人都开始利用Deepseek来进行各种操作,但是由于使用的人太多,加上Deepseek一直被攻击,所以经常出现Deepseek无法使用的情况。如果想畅快使用,就只能部署到本地电脑了,不过Deepseek对电脑的配置要求非常的高。那么,Deepseek怎么安装到本地电脑,Deepseek-R1部署需要什么配置?今天小编就可以大家详情介绍一下。

Deepseek怎么安装到本地电脑 Deepseek-R1部署需要什么配置

Deepseek怎么安装到本地电脑

Deepseek安装还是比较简单的,只需要简单2步就可以了。

***步:安装Ollama

打开Ollama官网:https://ollama.com/

Deepseek怎么安装到本地电脑 1

 

选择Download,进入下一个页面。

Deepseek怎么安装到本地电脑 2

之后根据你电脑操作系统选择,这里我们选windows。

第二步、部署AI模型

1、安装完成之后,需要部署模型才能运行,因此需要选择一个合适的模型。

这里给大家建议几个模型,不同模型需要的配置也不同:

版本:1.5b,适用于一般文字编辑使用(需要1.1GB空余空间)

ollama run deepseek-r1:1.5b

版本:7b,DeepSeek的***代推理模型,性能与OpenAl-01相当,包括从基于Llama和Qwen的DeepSeek-R1中提取的六个密集模型(需要4.7GB空余空间)

ollama run deepseek-r1:7b

版本:8b,(需要4.9GB空余空间)

ollama run deepseek-r1:8b

版本:14b,(需要9GB空余空间)

ollama run deepseek-r1:14b

版本:32b,(需要20GB空余空间)

ollama run deepseek-r1:32b

版本:70b,(需要43GB空余空间)

ollama run deepseek-r1:70b

版本:671b,(需要404GB空余空间)

ollama run deepseek-r1:671b

2、运行模型

打开Windows命令窗口,输入上面建议的模型,如:

ollama run deepseek-r1:7b

之后就会开始下载安装,安装需要一些时间,部署完成之后会有【Success】提示。

3、退出后如何重新进入Deepseek-R1

下次重新进入,同样在windows命令窗口输入

ollama list

可以先查看你的安装的模型,之后跟上面一样输入ollama run 模型名称(NAME),如:

ollama run deepseek-r1:7b

Deepseek-R1部署配置要求

一、基础场景:轻量级推理(如7B-13B参数模型)
适用场景:个人使用、低并发、本地测试

硬件配置:

GPU:至少1张显存≥24GB的显卡(如NVIDIA RTX 3090/4090、Tesla T4、A10)

CPU:4核以上(如Intel i7或AMD Ryzen 7)

内存:32GB DDR4

存储:NVMe SSD ≥ 512GB(模型文件约占用20-30GB)

网络:本地部署无需高带宽,云端需≥100Mbps

电源:≥750W(单显卡)

备注:7B模型在RTX 4090上推理速度可达每秒数十token。

二、中等规模:多并发推理或微调(如13B-70B参数模型)
适用场景:企业级API服务、中等并发、模型微调

硬件配置:

GPU:2-4张显存≥40GB的显卡(如NVIDIA A100 40GB/80GB、H100)

CPU:8核以上(如Intel Xeon或AMD EPYC)

内存:64-128GB DDR4

存储:NVMe SSD ≥ 1TB(需高速读写)

网络:多卡需PCIe 4.0互联,云端部署建议≥1Gbps带宽

电源:≥1500W(多显卡需冗余电源)

备注:70B模型需2-4张A100(80GB)进行推理,或使用量化技术(如GPTQ/GGUF)降低显存需求。

三、大规模场景:训练或高并发服务(百亿以上参数)

适用场景:模型训练、千级并发、低延迟响应

硬件配置:

GPU:8+张A100/H100组成的集群,显存≥80GB/卡

CPU:16核以上(多路CPU如AMD EPYC 9xxx系列)

内存:256GB+ DDR5 ECC

存储:RAID 0/10 NVMe SSD阵列(≥4TB),或分布式存储

网络:NVIDIA NVLink/InfiniBand(≥200Gbps)互联

电源:冗余电源+UPS,总功率≥5000W

备注:训练千亿模型需数百张A100,建议直接使用云计算平台(如AWS/Azure)或超算集群。

 

声明:本文由用户原创/整理/投稿,本站收录此文仅为传递更多信息,帮助用户获取更多知识之目的,内容仅供参考学习,文图内容如存在错误或侵害您的权益,请与我们联系kf@1688na.com,本站会第一时间进行处理。

热门评论