175 条回复  ·  19787 次点击
icyalala 小成 2025-5-15 14:12:38
@catazshadow 有用就是说能够对应智力水平。神经元的连接能够对应智能的水平吗?你怎么证明? LLM 的参数能对应应神经元的连接数量吗?你怎么证明?
icyalala 小成 2025-5-15 14:14:09
@catazshadow 你再仔细读读你的帖子主题, ”600B 的大模型的参数量也就这个数字的千分之一“,大模型的参数量和神经元连接是一回事儿吗?能够类比吗?
chairuosen 小成 2025-5-15 14:15:42
午休了一下,没想到楼盖这么高了。反正我看来看去没想明白 LZ 在表达什么。有瓶颈,有限制,你们说的有点道理,我们也提了可能的解决方案但你们说不对,所以呢,放弃不继续研究么? AI 届的失败主义?现阶段 LLM 不就是这个星球上最接近“智能”定义的东西么,不就是最有希望实现 AGI 的么,你还有什么别的好方案?
coefuqin 初学 2025-5-15 14:16:14
@trungdieu031 COT 只是让一个小学生对他思考模式更缜密,再怎么强化思考过程,也独立思考不出来微积分。并没有提升模型的能力。就像知识树,只是在现有的树里攘括更多的分支和节点而已,树本身没有拓展。那提升了什么能力呢?那些知识或许本身就有,但只是没想到而已。
qieqie 初学 2025-5-15 14:22:01
基本概念有误,神经元的数量和神经连接的数量不是一个概念。如果要和 LLM 比,一个 N 输入 M 输出的线性(全连接)层是 N * M ,而不是 N+M
coefuqin 初学 2025-5-15 14:22:10
@trungdieu031 在 COT 这个问题上,你和我不在一个频道,你理解的能力和我理解的能力不是一个概念,可以就此打住。至于我是不是听风就是雨,我比你更清楚。我能对你回复,已经算是出于好意了。不必再艾特我了。
coefuqin 初学 2025-5-15 14:24:50
@coefuqin 英文世界有人把 LLM 叫做 stochastic parrot ,很贴切了。上面那人就是因为我把这个说法搬过来叫做概率鹦鹉跑来追着我咬的 属实难绷。这个话题,我打算打住了,其实上次我看到这个报道的时候,我也是生出了和你一样的想法,没想到还会有人能拿出来讨论,我觉得英雄所见略同,甚是欣慰,我道不孤也,老铁,后会有期。
trungdieu031 初学 2025-5-15 14:25:37
@coefuqin COT 的确是让思考过程更精确。你这里说的又是另一个问题,LLM 能否做出原创性的思考? 归根到底,看你是不是认为人脑的智能的过程都是可计算的。 智能的表现形式里,COT 是一种,但它只能在既有的知识范围内推理,像数学里的演绎。COT 能被 LLM 学习到,转化为 LLM 隐式空间里的向量。 直觉也是智能的一种形式,如果它是可计算,那它必然也能转化为隐式空间的向量。 所以这个问题就变成,你是不是相信大脑有超越图灵机的能力,如果没有,那它必然是可计算的。 至少目前世界上还没有发现能超越图灵机计算能力的实际模型。 实际上没有什么东西是完全无中生有的创造,都是在既有范围内的创新,但范围本身要不断扩大。
smlcgx 小成 2025-5-15 14:37:46
@chairuosen 所以说实话,我觉得这才是诺贝尔奖给辛顿的最大理由吧,可能他不一定是正确的,但是他推广了这方面的研究,激励了后人去开拓。乔姆斯基就很让人绝望,他提到:心灵的内部运作是意识不可接近的,这他吗让人怎么研究啊😄,虽然我觉得后者可能是对的
coefuqin 初学 2025-5-15 14:39:37
@trungdieu031 刚才关于知识树的比喻,我好像错了,就这样了吧,后续再去学习。这个话题,我不打算继续讨论了,不必再艾特我。
返回顶部