20 条回复  ·  2250 次点击
xiaofeilongyy555 初学 2025-12-17 11:11:13
@rogerer 请问全球每年计算机毕业生中,有多少人手握 2 篇 ACL 一作?有 1% 吗?
xiaofeilongyy555 初学 2025-12-17 11:12:47
@Astralume 小爱现在用的是 deepseek 吧。相比模型,我感觉小爱对于工具的使用、接入不行,
rogerer 初学 2025-12-17 11:19:59
@xiaofeilongyy555 本来能参与 LLM 的预训练这个工作,就不到 1%。
Shanky 初学 2025-12-17 11:20:10
https://huggingface.co/XiaomiMiMo/MiMo-V2-Flash 看 hugging face 上的 benchmark 成绩挺好,如果能结合米家实现本地小模型/联网大模型,在 IoT 领域的应用挺有想象力的
xiaofeilongyy555 初学 2025-12-17 11:24:20
@rogerer 这什么春秋笔法啊。既然都知道只有 1% 的人能碰预训练,那能占住这 1% 的坑位还能连出一作,不正好说明他就是那 1% 的精英吗?承认别人优秀很难吗,非要说是显卡自己成精写的论文?
xiaofeilongyy555 初学 2025-12-17 11:25:33
@Shanky 本地小模型不太可能,硬件需求对个人来讲太高,调用网络接口反而是更划算的事情
IlIl 初学 2025-12-17 11:27:06
和盘古对比呢 有没数据
xiaofeilongyy555 初学 2025-12-17 11:31:41
@IlIl 和千问对比就行了(*^o^*)
rogerer 初学 2025-12-17 11:32:48
@xiaofeilongyy555 你先别急,我的意思是,在能做预训练的人里,两篇 ACL 不算什么。我们组来的本科实习生都是两篇 nips 打底。
xiaofeilongyy555 初学 2025-12-17 11:36:34
@rogerer 别拿那套批量产出的套路来显摆。现在谁不知道有些大组靠着算力堆实验,实习生只要进去跑个数、填个表就能混个 NIPS 挂名? ACL 一作看的是对 NLP 问题的深度洞察,不是看你在哪家大厂当熟练调参工。 这种流水线上的‘两篇打底’,除了装点门面,真到了解决实际业务问题时有多少含金量,大家心里都有数
返回顶部