36 条回复  ·  4000 次点击
perfectlife 小成 2025-9-4 22:09:27
学习大模型还是上英伟达吧
hefish 小成 2025-9-4 22:12:22
本地还是得 nvidia 吧。。。。不然兼容性折腾死你。 不说别的 vllm 没有非 nvidia 的二进制版本,你得自己编译。。
clemente 小成 2025-9-4 22:17:34
省点功夫吧 连买什么卡都搞不清楚
objectgiga 初学 2025-9-4 22:19:27
该用 api 用 api,想要本地跑不要买这种电子垃圾,带宽太低了,一万块去看看 7532+8*64+3080 20G,能保证本地运行现行大部分 MOE 模型的 int4,微调个人基本上别想这茬
hmbb 楼主 初学 2025-9-4 22:30:24
@TimePPT 可以尝试一下
hmbb 楼主 初学 2025-9-4 22:30:49
@skye 我再看看
hmbb 楼主 初学 2025-9-4 22:32:06
@clemente 最近才开始了解大模型这些知识
hmbb 楼主 初学 2025-9-4 22:33:39
@objectgiga 我看看
shuimugan 小成 2025-9-4 22:40:26
这配置比调用 api 体验更差,没有学习的价值,除非你要跑 Huihui-GLM-4.5-Air-abliterated 写黄文
402124773 限制会员 2025-9-4 22:47:47
@hmbb 按理说,你自组小主机应该比你买成品小主机要便宜一点的
返回顶部