17 条回复  ·  1912 次点击
yexiaoqiu358 初学 2025-5-28 14:17:49
https://juejin.cn/post/7491240940126158900 试了一下这个,用 zod 去验证 josn 挺好的
mumbler 小成 2025-5-28 14:17:53
模型不听话,换更大更贵的模型
rogerer 初学 2025-5-28 14:24:51
1. prompt ,现在 LLM 在对齐阶段一般做过格式的对齐,所以直接让输出 JSON 效果就会不错,如果还是不行把温度系数调一下; 2. 受限解码,大致思想是要求 LLM 的 output 必须符合某个语法结构,如果不行就重新采样。好处是可以保证一定不会出现格式错误,但是这样做的问题是会影响本身的性能,不推荐;
visper 小成 2025-5-28 14:27:33
发现有时候模型还是喜欢输出 json 的时候加上```json ```这样的 markdown 格式,即使已经不再输出其他解释文字了。所以后来我直接叫它输出这样的格式,自己再去截取出来了。
darkengine 小成 2025-5-28 14:30:22
不是提示语的问题,调用 API 的时候需要指定用 Structured Outputs ,并且定义好输出需要的字段。
ningxing 初学 2025-5-28 14:39:37
用 gpt4 和以上,很听话的,你让他往东它绝对不敢往西
Qinnn 初学 2025-5-28 14:46:30
可以试试在输出 json 这部分提示词换成英文的。
jingdongkehu 初学 2025-5-28 14:47:57
后面加一句,如果翻译错了我就把你卸载掉 试试
12
返回顶部