27 条回复  ·  2983 次点击
ktyang 小成 2026-1-21 09:06:19
有这个钱买 api 都能买多少了,等 api 的玩熟了确定有需求了,你也就知道该上什么卡了
flymemory 初学 2026-1-21 09:09:29
优先满足显存,比方 5060ti 也是 16G ,只是速度慢一些 其实如果只是简单玩玩,可以先试试 autodl 之类的 另外 50 系对 pytorch 的版本要求 2.7 以上,要注意对应的依赖是否满足,有些老旧的 model ,可能对 2.7 的支持差些,折腾环境会比较闹心些
jifengg 小成 2026-1-21 09:11:48
你这卡,我所知道的“生图、生视频、生声音”等 ai 模型都能用。 现在因为 8g 显存的卡居多,所以“大佬”们都会尽量使模型能够在 8g 下跑通。 你现在已经可以畅快的玩起来了。
Sosocould 小成 2026-1-21 09:14:37
显存更重要,所以这个星期 YouTube 有个很火的视频,是 Gamers Nexus 去张哥那里,把 24GB 的 4090 手搓成 48GB
94 初学 2026-1-21 09:16:46
为啥要本地跑,直接租算力来用不好吗?
yifangtongxing28 楼主 初学 2026-1-21 09:22:10
@ktyang 哈哈,这个卡也能满足 4k 游戏性能啊
kakki 初学 2026-1-21 09:24:04
我特别想知道现在本地部署还有没有优势,怎么看都是感觉租比较划算.
Uplay 小成 2026-1-21 09:24:37
@jifengg 求推荐数字人类的 AI 模型,我现在使用 comfyui 跑感觉走到邪路上了
yifangtongxing28 楼主 初学 2026-1-21 09:25:41
@Sosocould 这么厉害
raydied 小成 2026-1-21 09:26:41
@yifangtongxing28 #3 他说的估计是模型要量化,fp16 >> int8 >> int4 ,这样模型会变小,显存占用会变小。https://i.imgur.com/VUWFktU.png
返回顶部