13 条回复  ·  1513 次点击
zealotxxxx 小成 2025-4-17 13:51:06
两千行,不多呀。直接找个上下文大点的就行了。现在 gpt-4.1-mini 、gemini 2.5 pro 等等的 token 都很大了 1000K 完全够用了
Is0 小成 2025-4-17 14:12:28
本地跑 qwen2.5 或 2 都还行,但都不如直接沉浸式翻译用 api 来的快,https://siliconflow.cn/ 有免费额度,跑翻译完全够
old9 小成 2025-4-17 14:14:15
gemma3 27b 本地效果挺好的
wowpaladin 小成 2025-4-17 14:22:19
DeepSeek-V3-0324 挺好的
12
返回顶部