52 条回复  ·  5706 次点击
forestrs 初学 2025-9-5 13:44:19
提升词最后加上一句 “确保结果可以被 json.loads” 然后用正则贪婪匹配[]或者{};加了这句提示词后大多数模型不会输出错,除非你的模型能力很弱。
guaguaguaxia1 小成 2025-9-5 14:02:51
大模型能力不夠,你用 grok3 之类的不会有这个问题
gewuzhizhi 该用户已被删除 2025-9-5 14:04:13
提示: 作者被禁止或删除 内容自动屏蔽
yadam 初学 2025-9-5 14:07:42
可以试试 k2, 有 token enforcer 保证可以吐对
beloved70020 初学 2025-9-5 14:12:25
输出 tool_calls 呗
icyalala 小成 2025-9-5 14:27:01
如果你用普通的大模型,那肯定有概率生成不标准的 JSON 你得找支持 json mode 的大模型 API ,那个在生成 token 阶段就会进行语法约束,把无效 token 概率调到 0 ,才能 100%保证 JSON 合法
Liftman 小成 2025-9-5 14:30:53
不可能出错。除非你模型很拉跨。。。比如你用的豆包。。 我这边 gpt5 日常生成固定报告的 json 。然后渲染。毫无压力。失败率 0 。。。 而且目前 gpt5 是对 json 指令遵循最好的感觉。
annilq 小成 2025-9-5 14:44:08
13 楼处理方式基本能满足,我之前写了个生成书记目录的应用,也是会出现 json 解析问题,然后 catch 错误再扔回 llm 修复基本都可以的
young1 楼主 初学 2025-9-5 15:21:38
@dddd1919 目前是这样做的,但是这样耗时,因为在做内容召回,文本很长,然后模型吐的时间也比较长。所以还是期望一次就解决 json
young1 楼主 初学 2025-9-5 15:22:24
@734694671 长文本的时候
返回顶部