104 条回复  ·  11505 次点击
Ranglage 楼主 初学 2025-8-31 11:32:29
@laylou mermaid ,直接跟他说让他画出来 mermaid 代码( deepseek 第一版给我的 TD 图),我跟他说你给我换成 sequence 图,他就乖乖的给我换了(不过我主力 AI 还是 chatgpt )
wangpugod2003 小成 2025-8-31 11:33:51
shi*t 山项目维护中。。发现最大的问题是客户的需求 ,表达出来到产品经理,产品经理理解后再描述给技术 leader + 程序员去实现,实现完成后然后交付。 整个流程中代码时间大概占 30%,AI 确实能极大提升这 30%的效率。 但是整个过程很多地方可能出问题,客户可能根本不清楚自己想要的是什么?自己的痛点在哪里?产品经理理解的也可能有偏差,程序员自己的理解和当前的代码现状也会导致偏差。这些都很难控制。 不过我也同意,未来程序员肯定需要是综合性人才,那种能较好的理解当前的系统和良好沟通能力的人,并能表达出来的是未来的稀缺人才。
zw1one 小成 2025-8-31 11:36:26
@Ranglage #6 这不仅是前期设计的问题,初版大家都想设计得好一点。但代码是会不断腐化的,可以通过合理的软件开发流程来延缓,但不能阻止这件事的发生。 比如一个系统你迭代十几个版本,运维了几年,需求变过 n 次,人员也流动了几波,项目文档该有的都有但不怎么更新,和实际系统也对不上;每次迭代经历需求不明确的返工,deadline 逼近的加班产出的屎山代码,多人合作开发导致的模块重复开发、不可复用;跨系统对接由于各种规范和网络限制、或者上下游系统限制导致的兼容代码;领导一时兴起让你改造到一半,然后弃用或者只上线部分的功能; 以及代码中各种弃用的功能、模块、不被调用的接口、无效的逻辑,没人敢删,但读起来非常有误导性;系统功能已经稳定运行,领导也不会给你时间和风险成本做重构,还有更多奇葩需求等你加。 试想你把这样一个项目喂给 ai 它能读懂上下文吗? 你能描述清楚上下文吗? 你不自己做模型训练,通用 ai 能搞定这些需求吗?自己做模型训练,你有足够的人力梳理这些东西吗?更得上业务迭代的速度吗? 这还只是一个系统里的问题,涉及跨系统合作,各个系统又都有各自的问题,这些最终都是需要人来协调的。 ai 现在从 0 写代码、或者写标准化模块化的代码很强,但做复杂的大型系统是不够,而且也解决不了代码腐化和协作沟通的问题,如果真解决了这个问题,那程序员就真完了。不过也没关系,其他各行各业也好不到哪去,介时又会有新的岗位出现的。
catch 小成 2025-8-31 11:55:07
去掉应该,现在已经崩溃了啊。 无所吊谓,生活继续
laylou 小成 2025-8-31 11:56:34
@Ranglage 懂了,原来 sequence 图也可以用 mermaid 代码渲染
RightHand 小成 2025-8-31 12:01:06
你的 demo 级别的工程才多少个 token ,当前 gpt4o ,最多也就 128k 的上下文,你去看看你们的工程有多少个单词,最简单的比较了
hellodigua 初学 2025-8-31 12:03:39
@donnywusoftware 说实话,就我的体验,复杂的逻辑其实是能帮得上忙的,无非就是人先手动把复杂的逻辑拆一下,拆到让 AI 能理解的复杂的程度,让 AI 一部分一部分的解决,效率最终还是比人的高……(可能是我还没有经历过特别特别离谱的复杂逻辑) 但就我司 2 万行的单文件屎山代码,包括上下文的数十个关联文件,AI 看起来还是能搞定的
kakki 初学 2025-8-31 12:05:40
你那个应用等有人用了,进入迭代了再说吧。
kk2syc 初学 2025-8-31 12:07:56
@weixind 没错,他们把生成错误归咎于 prompt 写不好、生成 bug 归咎于模型不够强大,这些吹嘘 AI 上神坛的人永远不会怀疑是自己的逻辑能力低下、沟通能力差劲。 我和同事在公司也用 AI 辅助工作,效率很高,但我们从不宣扬 AI 的好,因为我们永远无法预测未来的业务是否能用 AI 完成,靠 AI 不如靠己,永远是一个辅助工具而已。
yvescheung 小成 2025-8-31 12:07:59
咱们先统一一下口径,未来指多久之后,1 年? 10 年? 50 年?你要是给不出具体时间那我也可以说未来人类肯定会灭亡,咱们都别活了
返回顶部