全球主机交流论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

CeraNetworks网络延迟测速工具IP归属甄别会员请立即修改密码
查看: 1963|回复: 27

现在自己部署deepseek是不是配置要求比LLAMA低了很多

[复制链接]
发表于 4 天前 | 显示全部楼层 |阅读模式
有没有折腾过的大神 说说自己配置和体验
发表于 4 天前 | 显示全部楼层
要是你说的是r1的话, 个人应该不好部署. 要是你说的是蒸馏的千问或Llama, 我觉得还不如base model.

因为deepseek r1是MoE结构, 我估计拿CPU跑都不慢的. 以前我用老的服务器只用CPU跑也是MoE的WizardLM-2-8x22B, 一秒钟也有2, 3个token.

你要是有1T的内存, 可以试试用纯CPU跑.
发表于 4 天前 | 显示全部楼层
低很多,原版只需要 800G 内存,Q4 量化版本只需要 400G 内存
发表于 4 天前 | 显示全部楼层
是不是參雜許多特色內容
 楼主| 发表于 4 天前 | 显示全部楼层

这个有意思啊 4个MAC MINI也不是很贵 一般公司负担的起
发表于 4 天前 来自手机 | 显示全部楼层
配置主要看你要部署的模型参数。
发表于 4 天前 | 显示全部楼层
发表于 4 天前 | 显示全部楼层
参数越大,需要的显卡要求越高,内存也很。
我之前本老的IMAC 电脑上跑过 lama2 7B 最小的,提交个筒单的处理,要几分钟。
DS 正在打算试试。应配制要底一些。
发表于 4 天前 | 显示全部楼层
可以试试用  LM studio  部署 deepseek 7b的模型
发表于 4 天前 来自手机 | 显示全部楼层
1.5B的可以在手机上跑
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|全球主机交流论坛

GMT+8, 2025-1-31 00:26 , Processed in 0.061655 second(s), 8 queries , Gzip On, MemCache On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表