175 条回复  ·  19798 次点击
windghoul 小成 2025-5-15 11:15:08
我是比较同意楼主的观点,现阶段的 LLM 只是统计学的扩展。只是把已经存在的打散拼接,个人观点它还不具有创造的能力。
hewitt29 初学 2025-5-15 11:17:53
本来就是,现在所谓的 AI ,连真正的 AI 的门槛都没有摸到
coefuqin 初学 2025-5-15 11:20:08
ANN 里的神经元激活是线性的一次性激活,但是真正的生物神经元是脉冲多次信号值叠加刺激激活,生物神经元的种类繁多,不同的功能对应了不同形态的神经元(具体见洛利群著的神经生物学原理)。远不是 ANN 里的感知器就能攘括的。
neteroster 小成 2025-5-15 11:20:53
看起来这里的讨论还是有点意思的,我来抛几个砖: > 原帖:就是 6500000 亿个连接。这要多少“参数”才能完整模拟。600B 的大模型的参数量也就这个数字的千分之一。所以... 这个论证并不明确。这些连接(条件)能达到某种效果不意味着达到某种效果需要这些条件。你当然大可以拿出所谓进化论去说一些道理,不过我仍然不认为这个论证是明确的。 > 所以说现在这种被称作 AI 的东西,根本没有智能 你可以说一下至少你自己对智能的定义吗?在没有共识的情况下讨论一个概念是没有任何建设性的。 进一步的,在明确了智能定义的情况下,你能比较严格的证明一个统计学模型(或者更准确地,一个由神经网络表示的语言模型( LM ))为什么永远不可能拥有“智能”吗? --- 个人观点:人类目前对意识、智能的概念了解甚少,以至于现阶段无法对大语言模型和类似人工智能系统的“本质”和“智能性”做任何形式的断言。
zhangsimon 初学 2025-5-15 11:22:33
“这一立方毫米的老鼠脑组织里找到了 5 亿个神经连接,人类大脑大概 1300 立方厘米,就是 1300000 立方毫米,按这个老鼠的脑子算,就是 6500000 亿个连接。” 为啥不直接计算一立方毫米的人脑组织里找到多少神经连接?
JoeDH 小成 2025-5-15 11:22:50
现在数据量翻倍几十万亿,巨量算力,但是每次整出来的迭代模型对比上代感觉并没有突飞猛进 scaling law 已经放缓
chairuosen 小成 2025-5-15 11:23:50
@chairuosen 意义就是对确定它到底是不是真理做出进一步实质性的帮助。规模不够,并不代表方向错误,你在这帖子用用规模还不够大反驳它,是没有说服力的,所以是没有意义的。
coefuqin 初学 2025-5-15 11:24:34
另外,LLM 这种监督学习的产物,只是机器学习里的一个分支。我觉得 RL+snn 才是最有希望接近类脑智能的。目前的 ANN 对于时间序列的视频是无能为力的,不然为什么没见几个牛逼的视频处理的 LLM ?因为基础架构就搞不定。不管是人还是动物,都是对于视频画面的理解来感知世界的,不是文字,也不是语音。
catazshadow 楼主 小成 2025-5-15 11:25:14
@coefuqin 至少时间维度上的行为现在这些神经网络就是完全忽视的
mwuxlcanrh 小成 2025-5-15 11:25:43
之前 gpt 这种超大模型只有 openai 一家研究根本卖不出去,是 gpt 进化到 3.5 能力涌现价值也跟着涌现,才出圈的。而且这玩意本身就是个语言模型,做的事情就是已知 A 预测 A 后面跟着的是 SS 。 至于人脑的研究与模拟,和这个根本就不是一条路子。
返回顶部