77 条回复  ·  8151 次点击
uni 小成 7 天前
个人体验 codex>=copilot>code buddy ,自己目前就这三个够用
DICK23 小成 7 天前
我遇到的问题就是太慢了,老是需要等,然后 agent 模式出来的又晚,那个时候我已经转投 windsurf 了
billzhuang 小成 7 天前
@gadfly3173 gpt-5-mini 不是 0 倍率的么
lizy0329 小成 7 天前
你要是真穷鬼,为啥不用 trae ?
ShaoYuanNuo 小成 7 天前
用 claude 接入其他 api 了
monkeyWie 楼主 小成 7 天前
@DICK23 确实有点慢,不过现在都是提示词给完之后就切走让它跑了问题不大
monkeyWie 楼主 小成 7 天前
@lizy0329 trae 试过了,包括最新的 trae solo ,估计是国内版模型太拉的问题,很难用
flytiny 初学 7 天前
@DinoStray 是 JB 里面的 copilot 么?
fonlan 小成 7 天前
@gadfly3173 #9 大佬 feedback 是 Copilot 自带的工具么?为啥我的 Copilot 工具列表里没有 feedback ?是通过写 instructions 实现自动调用 feedback 吗?
shunia 小成 7 天前
> 1. Claude Code 太费 token ,随便用用额度就烧得飞快,像我这种穷鬼开发实在用不起。 官方 CC 吗?不也是按月订阅,按频次限额吗?我理解和 token 数量无关? 如果不是官方 CC ,现在好多代理商,倍率挺低的,在不大量使用 opus 的前提下,并不烧 token 。 > 2. 纯终端形态不如 IDE 集成方便,在 IDE 里做 review 和 accept 都很方便,还能把 LSP 上下文喂给模型。 各人有各人喜好吧。比如我现在基本只用 lazygit 来实现 git 工作流,这是纯 terminal 的工具。另外 vide coding 的话不是应该让模型自己去 review 么?至少我个人用其他模型去 review 的情况更多一些。 LSP 喂给模型这个有什么说法?省 token 还是对比过同一个 prompt 效果更好?不太理解。 > 3. Copilot 一个月只要 10 刀(当然我是开源项目白嫖的),Claude 、GPT 、Gemini 都能用,而且每次有新模型出来,它基本上很快就能跟上。 首先免费的肯定香啊,免费且足够好用,那就更香了。 不过 10 刀的限额够做什么,我不太确定。当我重度 vibe 的时候,代理商那里 0.6 的倍率一句话也能消耗大几刀的额度。 > 4. 跟 GitHub 集成的非常好,在 issue 里 @copilot 就能自动开 PR 处理,而且这种只消耗一次 Premium 额度,我现在开源项目很多小改动都直接让它搞定,比如: https://github.com/GopeedLab/gopeed/pull/1183 https://github.com/GopeedLab/gopeed/pull/1187 跟 Github 的集成这个肯定是大优点,原生的就是好。这里同理可以用到 CC 上,官方支持的模型+工具,肯定比三方的好。 另:CC 的好是好在它确实能实现 prompt 要求它做到的事情,对比 token 消耗和白嫖的工具,这和吹不吹 CC 没关系吧?另外 CC 和自家模型的匹配度也很好,工具调用、MCP 、plugins 、skills 等等特性支持也非常不错,作为一个本身不收费的工具,它确实挺好的,没有任何毛病。你说太费 token ,它也能接入 glm 、kimi 、Qwen 、moonshot ,烧不烧 token 的它也可以很便宜啊。最后还有一点是 CC 有很多三方配套插件,这个生态目前基本是独家的,gemini 和 codex 都没有的待遇。 那么综上请问,CC 它哪里不好呢?
返回顶部