全球主机交流论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

CeraNetworks网络延迟测速工具IP归属甄别会员请立即修改密码
查看: 1994|回复: 41

拿vps跑deepseek r1

[复制链接]
发表于 前天 17:24 | 显示全部楼层 |阅读模式

前言

前排提示llama很吃性能的,别拿你的生产力的小鸡跑
建议内存大点的鸡上跑

1 docker安装openwebui+ollama

https://github.com/open-webui/open-webui
For CPU Only: If you're not using a GPU, use this command instead:
[pre]
  1. docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
复制代码
[/pre]

2 访问及设置

① 访问

ip:3000端口打开即可,有条件的话nginx反代下

② 设置用户名密码邮箱

③ 切换语言

点击右上角头像下面的settings-general,选择中文,save保存





④ 添加模型

左上角选择一个模型的话可以输入你想要的模型,

我们选择7b的,输入 deepseek-r1:7b,从ollama拉取



下载deepseek的7b模型,小鸡的性能跑个7b还是可以的
如果没法跑的话,可以跑1.5b的  deepseek-r1:1.5b

其他的模型的话这边
https://ollama.com/library/deepseek-r1

3 闲言碎语

本人用签名探针上的家里云。配置为5600+32G内存跑的

占用的话大概cpu在50%左右,内存吃到10G
我的cpu的话跑分gb5单核1675多,多核8934,你可以参考下自己跑着玩



7.5b的效果其实不怎么样,你们跑了就知道了



其实还不如自己直接调用api来的合适

跑api的话可以参考我这个帖子

https://qklg.net/post/20250127/

有条件上显卡跑,而且显存至少16G的,这种纯cpu跑的是玩具
隔壁老哥拿12400跑72b的https://linux.do/t/topic/397701/20
半小时才能回答一次,隔壁老哥cpu当一回时代先锋
发表于 前天 17:56 | 显示全部楼层
不建议折腾,没显卡跑这玩意,一个问题,可能几分钟才能生成答案
发表于 前天 17:33 | 显示全部楼层
api价格之下,除非有定制能力和需求,或者学习和玩,脑瘫才自建
发表于 前天 17:27 | 显示全部楼层
1.5g 内存能跑吗
发表于 前天 17:30 | 显示全部楼层
api那么便宜,真不如直接用api了啊
发表于 前天 17:32 | 显示全部楼层

有个1.5b的模型,大小1.1G,估计1.5G十分勉强能够用,

不如API。10块钱没有高需求按照现在的价格能对话一年了。。
 楼主| 发表于 前天 17:32 | 显示全部楼层
jhsyue 发表于 2025-1-29 17:30
api那么便宜,真不如直接用api了啊

主要是拿来当玩具用
 楼主| 发表于 前天 17:33 | 显示全部楼层


1.5b也许可以
但是效果真不行,调用api完事了

 楼主| 发表于 前天 17:38 | 显示全部楼层
人穷器短 发表于 2025-1-29 17:33
api价格之下,除非有定制能力和需求,或者学习和玩,脑瘫才自建

是的
我赞同你
这其实就是个玩具
发表于 前天 17:42 | 显示全部楼层
牛逼啊。开搞

还有更厉害的模型吗,100刀独服左右能带得动那种
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|全球主机交流论坛

GMT+8, 2025-1-31 00:09 , Processed in 0.068481 second(s), 8 queries , Gzip On, MemCache On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表