175 条回复  ·  19795 次点击
coefuqin 初学 2025-5-15 13:15:47
我纠正#64 的回答。 1 是 RL 的路线,2 是世界模型的路线。是因为本身缺少一个从根本上就无法高效泛化的“大脑”才走上面 2 个路线。 我纠正一下我的这个回答,因为 2 我回答错了, 这两种方法都是 RL 强化学习的方法,1 是在线强化学习,2 是有模型强化学习。 对于当前那些具身双足机器人学习家政或者别的人类技能的时候,用强化学习来做,那是没办法的办法,并不是这个办法是最优解。强化学习策略的泛化能力,在环境有根本性变化之后,就很低了。但是世界环境的特征是无穷的啊,怎么可能靠枚举来解决。或许在家政这个具体的领域,环境是可以收敛的,但是这个环境系数依然是庞大的。
cmdOptionKana 初学 2025-5-15 13:16:08
@coefuqin 训练“几千次”,这个次数不好判断,我们不知道人脑内部演算了多少次。 另外,狼孩回归社会,可能要花几年才能学会一门语言,而 AI 学一门语言的速度快多了,能不能根据这个来说人类学习比 AI 更慢?
catazshadow 楼主 小成 2025-5-15 13:17:13
@cmdOptionKana 我标题的意思是,有观点表示现在的 LLM 看上去很像人了,所以人类的本质也就是个 LLM ,这种观点忽视了 LLM 跟真实的大脑的差距,过于自信了。 我说的是有差距,没有否认 LLM 是在模仿神经组织。 我说的差距指的是规模,因为上面那篇新闻里报道的就是规模。 “达到人脑的规模是到时候再来讨论什么是智能” 这个说法来自认知论,人类的知识是通过对比获得的,没有对比就没有知识。那么为了对比,需要的是实验,人脑怎么实验?活人吗?显然不可能,那只能建模了,建模就会撞上计算机系统扩展性的墙,这个墙几十年内看不到突破,所以对人脑的认知几十年内也不可能有突破。
trungdieu031 初学 2025-5-15 13:18:21
现有 LLM 和人类大脑智能的形成机制共性远大于差异。 共性是底层必然都是神经连接的形式,而且需要达到一定的规模才能涌现出智能,差异可能存在与比如是否是 token by token 的预测方式,是否是梯度方向传播这些。但目前的神经学和 LLM 的发展表现出来的能力都指向了一个比较明确的结论:智能是大量神经元信息处理过程中的涌现,不依赖于具体的计算质(人类神经元或是半导体),必要条件是神经连接足够以及计算能力足够。 这种涌现无法用还原论的方法来解释,有点像你没法通过水分子来推测水的层流/湍流/雪花等。 1. 智能和神经元连接数量密切相关。从斑马鱼果蝇到老鼠猴子大象到智人,随着神经元连接的增大,智力有明显的递增关系。 2. 你上面给个那个大模型参数量目前只有人脑参数量的千分之一,数量级是对的。但 1000 倍不是什么遥不可及的数量级,尤其是半导体领域。更不用说人脑中有许多的冗余,负责感知的神经元等。 3. 目前神经科学比较认可的结论是人脑的智力和量子效应没有关系。本质上量子效应相干时间太短,没法维持在大脑这么大的器官上稳定处理信息。 4. 你说的完整记录“一个字之后另一个字”肯定是不对的。大模型的训练是学习模式,或者收条件概率。现在的顶级的大模型能做 10 位以内的加法,你不能说把所有 10 位以内的加法全都背下来了,显然不是。LLM 学习了加法规则,就像学习了人的思维方式一样(COT).
coefuqin 初学 2025-5-15 13:19:50
为了对股东有个交代,但凡有一种新的“大脑”模型,能对于陌生环境的问题,通过极少的训练(后者 0 训练,直接在动手的过程中学习)就能解决,谁用强化学习(针对特定场景试错巨量次来取得成功的经验)这种笨办法啊?
coefuqin 初学 2025-5-15 13:20:38
@cmdOptionKana 不能,见我上述,语言只是智能的一个子集。
coefuqin 初学 2025-5-15 13:21:29
@cmdOptionKana 人脑内部演算,就是杨立坤现在搞的世界模型这条路。
catazshadow 楼主 小成 2025-5-15 13:22:28
@trungdieu031 不不不,半导体已经到头了,1000 倍现在就是遥不可及
coefuqin 初学 2025-5-15 13:25:58
@trungdieu031 非常遗憾 COT 并没有真正的强化智能。 https://mp.weixin.qq.com/s?src=11×tamp=1747286684&ver=5991&signature=61OTUTCOHehyblNBW0CuuArV9wBFpzc2KSyWq3VGUvgY1OZFXIHKq6qWL4mUw7n-saxTlncSs9g3*SL*7hsBoEiGa59*yLQURsL6rdHFM10zUCTVY0V39WFQk10sCDMY&new=1 你的情况是,想的多,看的少。
NoOneNoBody 小成 2025-5-15 13:26:12
“看脸色”这类工作,确实需要很长时间,我甚至怀疑几十年行不行,因为它不仅仅是“emotion detect”,还需要对感情的认知 这里涉及两个突破:1. 具备感情 2. 针对前一条的伦理拷问——机器该不该有感情
返回顶部