41 条回复  ·  4375 次点击
albin504 楼主 初学 2025-11-26 10:03:06
@liuzimin 这其实也给我们程序员提了个醒:在遇到问题的时候,先初步判断下这个问题是否适合用 AI 来找答案。如果一股脑地找 AI ,问题解决不了不说,还会丧失咱们本有的技能
crocoBaby 初学 2025-11-26 10:04:08
原来学习之前需要先提供权威文件给 ai 啊?!怪不得我的 ai 一直在胡说八道,虚构一些不存在的知识误导我学习
YanSeven 初学 2025-11-26 10:04:36
是的,至少 LLM 在 Coding 领域的落地已经是非常可观的了。相当于有个耐心的老师傅时时刻刻陪着你学,帮你扫清小障碍。 真的感恩技术带来的便利。 但是,估计也会带来内卷和竞争。就看谁在 llm 帮助下学的快,学的多。
liuzimin 初学 2025-11-26 10:05:42
@albin504 是的。感觉只能靠 AI 提供个思路,不能完全依赖它。真正分析问题还是要靠自己。
albin504 楼主 初学 2025-11-26 10:08:32
@YanSeven 我理解,至少现在来看,即使有了大模型,程序员也得学习新技术,只是侧重点不同。现在需要学的是原理性的、框架性的、需要具备技术选型、优劣判断的能力。 举例,我最近在学习 nvidia GPU 编程的技术。 我如果不系统学习的话,遇到一个特定的问题,AI 是不会提供 GPU 解决思路的,即使提供的,我也可能因为拿捏不准不敢用到生产环境。 我需要具备评判 AI 给出的方案的优劣、是否适配业务的能力。
albin504 楼主 初学 2025-11-26 10:09:39
@YanSeven Coding 是很牛。 这里有个前提,方案还是得靠程序员设计。设计好了合适的方案,AI 来执行实施( coding )。
xctcc 小成 2025-11-26 10:11:36
@crocoBaby #11 之前我让 ai 直接启动一个项目,他写的代码全是上个版本的很多不兼容也处理不了,后来每次启动新项目都先把最新版本的 repo 直接 clone 到本地,然后出现问题让他直接阅读源代码,比 context7 好用一点,就是 token 可能有点爆炸
crocoBaby 初学 2025-11-26 10:12:53
@xctcc 你相当于把源码写进 prompt 了,肯定 token 爆炸,这种情况我建议你本地部署 LLM 做,无限 token
albin504 楼主 初学 2025-11-26 10:14:02
@crocoBaby 给 AI 喂权威资料,现在已经成为 AI 训练的一个难题了。 以公司内部的知识库资料训练为例,假如我们要高很多一个公司内部的行政小助理,训练会遇到以下问题: ( 1 )公司内部的知识库上有多篇文章提到公司的考勤制度,其中一些文章写的制度已经过时了,这时候 AI 就需要去判断该采信哪个信息源。 ( 2 )有些政策和特定的毕竟信息强相关(类似于不同的软件版本不同的参数),在提问时如果没给出很具体的背景信息,AI 只是根据概率给出了概率较大的答案,这时候很可能是错误的答案 ( 3 )有些知识库的内容本身就是错误的(就是你提到的不权威)
crocoBaby 初学 2025-11-26 10:18:04
@albin504 我昨晚 youtube 刚好刷到一个 RAG 的教程,应该可以解决你现在遇到这个问题,把你公司的知识库转向量存 db,然后每次推理的时候在 prompt 带上 db 的向量
返回顶部