全球主机交流论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

CeraNetworks网络延迟测速工具IP归属甄别会员请立即修改密码
查看: 747|回复: 9

集显、docker本地部署deepseek大模型

[复制链接]
发表于 前天 22:48 | 显示全部楼层 |阅读模式
本帖最后由 云生 于 2025-1-28 22:49 编辑

https://v.douyin.com/if45L5qx/

deepseek r1  1.5B
最小的模型,可以用集显运行
docker 部署
发表于 前天 22:49 来自手机 | 显示全部楼层
客户端凑合用,又不是ai包子
发表于 前天 22:55 | 显示全部楼层
不是很明白 自己部署了有啥用? 还需要自己训练么?
发表于 前天 22:56 | 显示全部楼层
集显显存能多大
发表于 前天 22:58 | 显示全部楼层
API便宜部署个毛线,多大量啊
发表于 前天 23:55 | 显示全部楼层
7b我都嫌废,这还1.5b
发表于 昨天 01:02 | 显示全部楼层
大模型,即大型语言模型(LLM),是指基于Transformer 模型架构,具有大规模参数和复杂计算结构的超大型机器学习模型(超过10 亿个参数),通常由深度神经网络构建,对海量数据进行预训练处理。 大模型的底层转换器包含一系列神经网络,分为编码器和解码器,且具有自注意力功能。

1.5亿参数严格来说不算大模型
发表于 昨天 01:05 | 显示全部楼层
集显就算了,6系A卡能不能跑?
发表于 昨天 06:24 | 显示全部楼层
louiejordan 发表于 2025-1-29 01:05
集显就算了,6系A卡能不能跑?

你OUT了,谁告诉你非要独立显卡跑的?一年前deep seek家的模型就不吃显卡了。
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|全球主机交流论坛

GMT+8, 2025-1-30 09:56 , Processed in 0.059109 second(s), 7 queries , Gzip On, MemCache On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表