是说国外的中转都开始不好用了?
也不能完全这么说,只能说总体来说没以前那么便宜、那么稳定了,主要因为薅羊毛的渠道都被堵的差不多了,claude, openai 封号都开始变的特别严重了,gemini 那边廉价的渠道也下了很多了
只能说编程用途的话影响很大,因为成本要提高很多了,不仅廉价的 claude 没了,codex 也要升不少价了。但如果只是日常使用,例如用用 gpt 5.4 或者 gemini 3 flash preview 聊聊天,那影响还不是很大(我最近用 gemini 3.1 pro preview 和 3 flash preview 都还蛮好的)
如果只是编程用途,那对大多数人影响都不大。
我看有的人编程用的是K2.5。
得看项目本身的编程难度与复杂度吧,大部分玩具项目 / 创意项目 / 外包项目基本上不太需要高端模型,绝大多数常用模型都能应对。
但是我自己碰到的几乎都是非 Claude Opus 不可,换个其他家的模型就完全不如我自己上来得简单。之前试着换过 Codex,但是经常出现思路特别烂的情况,交付的代码逻辑都是能跑就行的玩具,完全不提前考虑真实场景。
蛮多人买中转站都是为了编程的,也有蛮多中转站主要就是服务编程和龙虾用途的,例如 PackyCode, RightCodes 和 Xcode.best,其实影响不小
Kimi 2.5 好像确实不错,但是跟 gpt 5.4 还是有差距,更别说和 claude opus 4.6 了 ![]()
@wankkoree 早前在千问3刚出来吹得很热的时候,我拿它尝试过写一段JavaScript脚本,效果是展现md格式页面的大纲目录,结果死活都差一点,之后我就没再用过AI写代码。一直听说Claude的很强,但是也没试过,他家封号太严了。
@dearxixi 那如果只是纯对话呢?大多数人都用的网页版、国内AI?其实我国内外都用(免费版),有点感觉国外的两家G要比国内的强些,但不是很明显。我想用的动机是国外网页版太粗糙了,这个在先前多少有点提到,另外付费可以用更高级点的模型。
纯对话的话,Gemini 受到的影响不是很大(至少 Flash),我觉得用 Gemini 就够了,我平时对话这类也都是用的 Gemini
是不是纯对话Gemini Flash就够了,那也就是网页版就足够用了?
或者如果Gemini Flash够用的话,他家的API就能免费用。
是的是的,如果 Gemini 官方免费的额度就够你用了,那也就不用折腾其他东西了
其实额度在其次,我在意的是,早先出来的模型版本是否相比最新的会有降智,比如Gemini 2.5不及Gemini 3.1。
这个分情况:
例如 2.5 Pro 比 3 和 3.1 Pro 的“智商”要高,因为它的注意力上下文更大,后续版本为了降低成本注意力上下文都给的很少;但 3 和 3.1 的训练数据要更多、更新。因此具体使用起来的效果,还是要分场景,如果要看解决复杂问题、编程等,2.5 Pro 或许更好,但日常问答,3/3.1 Pro 应该是会更好
再者就是我更有感触的 2.5 Flash Sep 和 3 Flash 的差异,2.5 Flash 的最后一个版本是我感觉最好用的,但是 3 Flash 则差了很多。能明显感觉到 3 Flash 不如 2.5 Flash Sep 聪明,虽然 3 Flash 已经很聪明了(现在就难说了),但 2.5 Flash Sep 总能给到我更想要的回复
不过现在还能用到 2.5 系列吗?我记得不是都下架了吗?之前收到谷歌的邮件说要下架来着。App 端,例如手机上的 Gemini 助理好像用的也是 Gemini 3
不过总的来说我还是建议拥抱新模型吧,谷歌下旧模型下的挺快的
日常问答来说,开启联网的话都能给到非常不错的回答。而且 Gemini 3 Flash 的回复速度超快,无论是首字还是吐字速度都比 2.5 快,用 3 是没问题的
我之前一直用中转站的codex后来看gemini便宜就用了下gemini cli,模型选的3 auto,效果确实还行但 3.1 pro的思考真是太慢了,flash确实还可以
gemini 还能比 codex 便宜嘛,很多中转站的 gemini 都不支持缓存吧,还是说你是单买的 ultra?
也是中转站的gemini,我说便宜是目测比在codex上用5.4便宜,确实没考虑缓存的事情
嗷嗷酱紫,gemini 不带缓存硬上 cli 竟然也比 codex 便宜嘛?那 gemini 确实是好便宜hhh
不过有一说一,还好 gemini 这边还管的还没那么严重,不然连对话都没有一个便宜好用的模型了
我也没细算,没考虑到不带缓存的问题,这样想可能不便宜了
是的,没缓存还是划不来……我目前见过的带缓存的就只有 ZetaTechs 一家
大佬目前用的哪个中转呀 就cc genimini的话
cc 的话我现在是用的 packycode 和 rightcodes,但不一定是最好选择,主要是我用惯了,而且前者很靠谱
gemini 的话我是好几家混用的,因为都不稳定……flash 的话一般是 rightcodes 和 zetatechs 优先,这两个如果用不了了就用云雾;然后 3.1 pro 的话我是先用云雾,然后再试其他家(因为云雾的 3.1 Pro 成功率目测高一点)
不过 cc 我现在都在减少使用了,不到迫不得已都是先用其他模型,太贵了
