21 条回复  ·  2383 次点击
xiaosheng 小成 2025-4-1 09:43:22
@letitbesqzr 一时之间不知道这是好还是不好了哈哈
timeance 小成 2025-4-1 09:44:39
硅基水分最少,腾讯和火山不知道是层数叠了还是咋滴 感觉质量不太好 但是硅基速度确实一般,而且模型也不多 deepseek 的话建议官方
clf 小成 2025-4-1 09:46:29
自己用的话我选择 openrouter (虽然是 api 转发)
IwfWcf 小成 2025-4-1 09:51:58
@menghuitangchao 有个数据共享计划,好像是到 5 月底,加入后就可以每天获得 50 万 token 的额度,不过要消耗完开通时赠送的 50 万才会消耗每天那 50 万
IwfWcf 小成 2025-4-1 09:54:22
@sunny352787 copilot 这样用是有封号风险的
LanhuaMa 小成 2025-4-1 10:22:04
openrouter, 让它来帮你做选择
SakuraYuki 小成 2025-4-1 10:26:29
硅基速度慢,火山贵,别的没用过
JoeDH 小成 2025-4-1 10:27:03
硅基的,我在二月初就写了文章来拉邀请人头,现在累计了大概 500 块,不过速度很慢我都不用 火山引擎之前邀请送 30 块,我在闲鱼花了 5 块买了十个头,现在有 300 块代金券,足够用了 基本都没花钱,外部平台用下来火山的最快,但还是比不过 ds 官方
Ariake265 小成 2025-4-1 10:35:54
openrouter
Xheldon 小成 2025-4-1 10:40:43
OpenRouter 可以,但我至今没弄明白它怎么设置分流。。。而且想用它的 OpenAI 的模型也不行,提示所在区域不可用,估计是判定我绑定的大陆信用卡了; 硅基的我用来翻译,外加 7*24 小时跑了一些脚本,跑了一周没有断过,并发限制也低(我脚本限制一秒 5 个并发,但实际限制好像是一秒 100 个没记错的话),适合个人开发者放服务器搞一些小项目,比较稳定,用的 Qwen2.5-14B 和 32B 的模型。 Groq 快确实快,跟硅基没有更明显的优势,因为是海外需要梯子很快才能有感知,不然首字节取决于你梯子的速度。 Grok 我也用,用的 Grok-2-1102 ,并发限制记得是每秒 8 个,对我跑脚本够了,因为之前绑定了信用卡,每月给 150 美刀额度,所以跑脚本的时候上面有 Qwen 返回结果我检查不合规的,会 fallback 到 grok ,也比较稳定没断过。( fallback 的顺序是 qwen2.5-14b -> qwen2.5-32b -> grok2 ) 不过现在这些我都不用了(除了跑脚本),用 ChatGPT 的客户端,它那个交互细节尤其是快捷唤出的功能做的很好很克制,已经付费 Plus 订阅了。
返回顶部