设为首页
收藏本站
开启辅助访问
全部
问与答
创意
技术
酷工作
生活
交易
资源
节点
飞墙
Follow
明白贴
报酬
登录
注册
飞社-令人惊奇的创意工作者社区-
›
首页
›
程序员
›
想自己本地跑大模型,学习大模型,做一些微调等操作,目 ...
FSHEX=FIND+SHARE+EXPRESS
飞社-令人惊奇的创意工作者社区- 是一个关于发现分享表达的地方
现在登录
没有账号?
立即注册
推荐主题
›
失业的程序员们都在干啥?
›
你能接受女朋友不要彩礼,但是和你谈之前经
›
半夜扰民怎么办,已经严重影响休息了
›
F站怎么有这么多人以 PC 为荣?
›
开网吧是不是个好生意
今日热议主题
对隐私保护做得好的浏览器都有哪些
Claude Code 正确使用姿势到底是什么?
今天晶哥打了两个电话给我,叫我去喝茶
iPhone Fold 的传闻越来越确切了,大家期待
程序员的危机感是不是很强烈?我这 0 基础
咨询深圳南山科技园附近 3km 内价格低廉可
V2 今天是改了什么吗?我怎么登不上去呢?
求县城买房建议!
iPhone 有类似于流量管理的工具吗?
求解 iOS 版本达到什么状态时开始安卓版、
显示全部
|
最新评论
36 条回复
·
3998 次点击
21#
hmbb
楼主
初学
2025-9-4 23:08:11
@shuimugan 好像自己组 NVIDIA 显卡主机比较适合学习用
22#
hmbb
楼主
初学
2025-9-4 23:08:43
@402124773 主要买成品比较省事
23#
lithiumii
小成
2025-9-4 23:23:46
amd 这一代虽然能跑了,但还是太慢,最后你还是得走上魔改老黄的邪路。或者再等等看下一代
24#
hmbb
楼主
初学
2025-9-4 23:29:38
@lithiumii 貌似是的,下一代可能会好些
25#
nightwitch
小成
2025-9-4 23:33:05
现在国内租用 gpu 的平台多的是...4090 这种也就两三块钱一小时,3080 这种更便宜。 入门绰绰有余了,500 块钱能够你从入门到放弃好几回了
26#
shuimugan
小成
2025-9-4 23:41:25
你先明确学习的内容是什么。 首先排除训练,Llama 3.1 8B 训练使用 1024 张 H100 80G 训练了一个月也就那样; 然后就微调,显存小就跑个 gpt-oss-20b 和 Qwen3-30B-A3B 的规模,https://docs.unsloth.ai/basics/gpt-oss-how-to-run-and-fine-tune https://docs.unsloth.ai/basics/qwen3-how-to-run-and-fine-tune 大点的模型还不如去 https://www.together.ai/ 导入你的数据集点几下按钮就开始微调了。 然后是推理,推理吃的是带宽和显存,这个价格你直接在 https://apxml.com/zh/tools/vram-calculator 选你要跑的模型和设备来看模拟推理的速度心里就有数了,这个配置性价比最高的也就是跑 gpt-oss-120b 的 mxfp4 量化,其次是 GLM 4.5 Air 的 4bit 量化,速度也就那样,选择 M4 Max 看速度然后除以二就懂了。 再然后是 RAG ,说白了就是找出相关内容然后字符串拼接,你本地跑和调用 API 也没区别,看 llamaindex 代码就懂了,知识库都是围绕那三五十行代码做各种业务和 UI 的封装。 https://github.com/run-llama/llama_index/blob/81d4b871143ddd4a7cb90333a3d103fbb1f269c5/llama-index-core/llama_index/core/prompts/chat_prompts.py#L21 剩下的就是画色图、写黄文、声音转文本、文本转声音、声线克隆 @hmbb
27#
402124773
限制会员
2025-9-4 23:42:24
@hmbb 自己组也很简单。并且现在电商很发达的,你什么配置的,找抖音本地大主播配一下,也很简单的。 我建议你别太相信小主机的散热了,另外现在主流大模型学习还是 nvidia 的显卡吧,amd 那玩意不太靠谱。
28#
charlenehe43
初学
2025-9-5 02:00:10
小主机怎么可能跑大模型啊,我 m1 跑个 1.5b 的模型都卡的批爆,而且你这是 amd 的显卡?cuda 用不了吧,当然我是外行哈说错别怪
29#
ryc111
小成
2025-9-5 02:16:20
这个小主机很顶,跑小几十 B 的模型都没问题,速度也还过得去( xB 大小的模型还挺快) 大点的模型比如 70B 量化的那种,就比较慢了。 自己本地折腾大模型以及建立个人知识库学习学习挺不错的。 最好玩的就是折腾一些文生图,图生图,还蛮有意思的,lora 微调啥的,内存都够用。
30#
SGL
小成
2025-9-5 08:20:40
最优的选择是现在 GPU 算力平台花个小几百玩玩儿,然后就做大的决策。
下一页 »
1
2
3
4
/ 4 页
下一页
浏览过的版块
宽带症候群
创意
分享创造
Solana
生活
分享发现
问与答
职场话题
Apple
返回顶部