有什么好用同时兼顾性价比的翻译小模型?

主要用于“简约翻译”的Api调用,现在主要用的是各个平台白嫖的“DeepSeek V3”,但是体验上还是慢,之前用过智谱的一个9B的模型,速度够快,但是准确度不够,不知道有没有一个模型能够相对平衡一些,如果能兼顾性价比就最好了。

最后选了“Qwen2.5-72B-Instruct”,速度快,翻译准确性也还行,百万4块钱,反正是送的,不用白不用。

gemini 2.0 flash 呢? gemini 处理语言效果不错的,flash 的速度都还好。ai studio 里 api 免费用量也很慷慨,就是 api 不能直连麻烦一点

1 个赞

可以试试本地大模型aya-expanse:8b,效果很棒,速度也快。

1 个赞

有一个docker叫one api,研究一下,你会打开新世界的大门。

必应也凑合用

我找了下国内的大模型厂商,没找到这个模型,我主要想直接调用,本地部署的话,反而有点麻烦了。

体验到AI的翻译效果不想凑合了主要是。

Gemini我之前一直嫌麻烦没搞,现在听说额度砍了一刀,更没有动力折腾了。

如果无法进行连贯的上下文翻译,那么选 择DeepL X API,它的翻译效果出色,速率也高。
有挺多可以白嫖的DeepL X API
自己搭建成本也不高

部署本地模型本身就很简单,哪儿麻烦了

白嫖deeplx,速度快量大,大部分场景翻译够用,难翻译的用Gemini 2.0 Flash exp补充下

如果你不是那种批量翻译,日常用用,就用付费的Deepseek R3或kimi之类的API吧,本地部署对硬件有要求,翻译pdf用不了几个钱的,除非你是几百本全文翻译

很多模型厂商都会推出浏览器插件,我用的豆包也有全文翻译的功能,体验跟沉浸式翻译的差不多

阿里云qwen turbo,百万三毛

这个我测试了,跑不通。估计做了限制。

我在沉浸式翻译里用过,可以用,只是有限制,同时间段落和单位时间内次数有限制。

我天天用没遇见过,可能是你账号的问题?

我查过,并发频率给的是一分钟1500 ,普通翻译不可能这么多吧,一分钟10都已经很快了。

deeplx 之类的会限制次数, 像沉浸式这种很容易触发.

我目前是在 KISS Translator 里用 siliconflow 的 免费7b, 自己改提示词

请尊重原意, 保留原有格式, 用更符合{{to}}表达形式的语法重写下面的内容:

反正效果比谷歌和必应都好

1 个赞

deepseek v3 刚更新的时候我记得输出速度提高了很多,可能是最近一直在被攻击才导致响应和输出速度这么慢的,可以等以后风波过去了再看看。或者也可以看看有些转发 key 商自己部署的 deepseek?