175 条回复  ·  19792 次点击
sillydaddy 初学 2025-5-15 11:57:17
@coefuqin #25 你根本就不了解机器人这块的进展吧?机器人训练为什么不如文本和视频训练,这是明摆着的事实,因为数据量不够!你看过相关的报道,就会知道,现在机器人训练有 2 种方法,1 是通过实际的机器人训练,然后收集数据,2 是通过使用虚拟仿真的物理世界,在这个世界里面训练然后移植到真实世界,然而是有些差别的。 @catazshadow 看来看去,你的推理逻辑,始终是: 1. 因为 LLM 有概率输出,所以它是统计模型,所以它无法做到人类能做的事,不具备真正的智能; 2. 因为 LLM 神经元没有人类的多,所以它无法做到人类能做的事; 说实话,这种逻辑思维,就连 ChatGPT3.5 也比你强啊。能不能来点真才实料? 1. 杨立昆说,因为 LLM 的输出 token 是一个接一个的,又因为每个 token 都有一定的概率出错,所以最后出错的概率是指数级别上升的,比如每个 token 的可靠性是 0.99 ,那么输出 1000 个 token 正确的概率就要到 0 了。为什么这种情况没有发生?怎么用统计学解释? 2. 为什么通过列出步骤,可以显著增强模型的推理能力? 3. 为什么训练时间和推理时间,有替代作用?也就是说一个使用更大数据训练的大模型的立即响应能力,可以通过与一个小模型经过较长时间的推理而得到? 你不去搞清楚这些问题,而是专门在这里招摇撞骗,使用连 LLM 都不屑于使用的推理逻辑去你那宣传可笑的观点。
catazshadow 楼主 小成 2025-5-15 11:57:44
@cmdOptionKana 因为没有手段,所以搞不清楚定义,所以不会存在 不需要先定义再讨论
coefuqin 初学 2025-5-15 11:57:59
为什么没有人和我对线?我是来真心讨论的,我也有那么一丢丢的先验知识储备,看过几本书的。
cmdOptionKana 初学 2025-5-15 12:01:02
@catazshadow 搞不清楚定义,可以讨论。 但是,既然你已经承认自己是在不清楚定义的前提下讨论,那就相当于承认你主要是在输出情绪,而不是在讲道理讲逻辑。
coefuqin 初学 2025-5-15 12:04:03
@sillydaddy 下次否定别人的时候,不要带吧这个字,会让你没那么自信。我没说机器人训练为什么不如文本和视频训练。你所说的机器人训练的 2 种方法,只是在当前技术基础上的方法。你说的 1 是 RL 的路线,2 是世界模型的路线。是因为本身缺少一个从根本上就无法高效泛化的“大脑”才走上面 2 个路线。 你请一个保姆,还要让她训练几个月擦桌子和拖地? 自己没读过几本书就不要这么狂。
cmdOptionKana 初学 2025-5-15 12:04:43
@coefuqin 可不可以说,智能是指:「一个人或东西」所掌握的知识和技能,包括但不限于「专门」学习的、「运行过程中」积累到的、以及「各种行为而」等等。 如果智能是这个定义,那么 AI 有没有智能呢?
sillydaddy 初学 2025-5-15 12:11:03
@coefuqin 保姆也是从婴儿长大的啊,婴儿接收的数据量有多少,你告诉我!而且现在的大语言模型,本身就需要大量的数据去初始训练一个基底模型啊。人类用很少的经验就能学到东西,AI 没有做到这样,但这不意味着 AI 没有智能!这个逻辑根本就不通。谁也没说现在的 LLM 就是完备的,我还会说 LLM 没有自主意识呢!
sillydaddy 初学 2025-5-15 12:12:24
@coefuqin 另外,别拿你学的那些书本知识在这儿显摆,我用常识和推理就能打败你。你强的话,回答一下#60 楼我提出的问题,可别在这儿猪鼻子插大葱,自个儿给自个儿抬轿。
catazshadow 楼主 小成 2025-5-15 12:15:13
@cmdOptionKana 我在告诉你为什么几十年内不会有一个通过建模得到的智能定义,为什么这是在输出情绪?
wyntalgeer 初学 2025-5-15 12:16:49
人脑=智能,吗? 没准 LLM 的模式,未来比人脑更智能呢
返回顶部