主要用于“简约翻译”的Api调用,现在主要用的是各个平台白嫖的“DeepSeek V3”,但是体验上还是慢,之前用过智谱的一个9B的模型,速度够快,但是准确度不够,不知道有没有一个模型能够相对平衡一些,如果能兼顾性价比就最好了。
最后选了“Qwen2.5-72B-Instruct”,速度快,翻译准确性也还行,百万4块钱,反正是送的,不用白不用。
主要用于“简约翻译”的Api调用,现在主要用的是各个平台白嫖的“DeepSeek V3”,但是体验上还是慢,之前用过智谱的一个9B的模型,速度够快,但是准确度不够,不知道有没有一个模型能够相对平衡一些,如果能兼顾性价比就最好了。
最后选了“Qwen2.5-72B-Instruct”,速度快,翻译准确性也还行,百万4块钱,反正是送的,不用白不用。
gemini 2.0 flash 呢? gemini 处理语言效果不错的,flash 的速度都还好。ai studio 里 api 免费用量也很慷慨,就是 api 不能直连麻烦一点
可以试试本地大模型aya-expanse:8b,效果很棒,速度也快。
有一个docker叫one api,研究一下,你会打开新世界的大门。
必应也凑合用
我找了下国内的大模型厂商,没找到这个模型,我主要想直接调用,本地部署的话,反而有点麻烦了。
体验到AI的翻译效果不想凑合了主要是。
Gemini我之前一直嫌麻烦没搞,现在听说额度砍了一刀,更没有动力折腾了。
如果无法进行连贯的上下文翻译,那么选 择DeepL X API,它的翻译效果出色,速率也高。
有挺多可以白嫖的DeepL X API
自己搭建成本也不高
部署本地模型本身就很简单,哪儿麻烦了
白嫖deeplx,速度快量大,大部分场景翻译够用,难翻译的用Gemini 2.0 Flash exp补充下
如果你不是那种批量翻译,日常用用,就用付费的Deepseek R3或kimi之类的API吧,本地部署对硬件有要求,翻译pdf用不了几个钱的,除非你是几百本全文翻译
很多模型厂商都会推出浏览器插件,我用的豆包也有全文翻译的功能,体验跟沉浸式翻译的差不多
阿里云qwen turbo,百万三毛
这个我测试了,跑不通。估计做了限制。
我在沉浸式翻译里用过,可以用,只是有限制,同时间段落和单位时间内次数有限制。
我天天用没遇见过,可能是你账号的问题?
我查过,并发频率给的是一分钟1500 ,普通翻译不可能这么多吧,一分钟10都已经很快了。
deeplx 之类的会限制次数, 像沉浸式这种很容易触发.
我目前是在 KISS Translator 里用 siliconflow 的 免费7b, 自己改提示词
请尊重原意, 保留原有格式, 用更符合{{to}}表达形式的语法重写下面的内容:
反正效果比谷歌和必应都好
deepseek v3 刚更新的时候我记得输出速度提高了很多,可能是最近一直在被攻击才导致响应和输出速度这么慢的,可以等以后风波过去了再看看。或者也可以看看有些转发 key 商自己部署的 deepseek?