【开发者自荐】拒绝中文“降智”!我做了一个双核 LLM 引擎,用中文提问释放大模型 100% 推理潜能 🚀

各位佬们好!

大家平时调 API 或者用各家大模型时,肯定都有个明显的体感:同样一个复杂的代码/数学/逻辑问题,用英文问 GPT/Claude/Gemini时,回答质量比中文要好。

这不是玄学,毕竟主流大模型的训练语料大部分都是英文。非英语 Prompt 天然吃亏,圈内管这个叫 “非英语降智”

常见的解决方法是手动用翻译软件把问题翻译成英文,生成答案后再把答案翻译回来……但说实话,每次使用起来都很麻烦

为了彻底解决这个痛点,我撸了一个开源项目 —— ThinkLingo

thinklingo_demo

一句话概括:你只管用中文提问,它在后台自动翻译成英文让模型进行深度推理,最后再把高质量答案无缝翻译回中文。全程流式响应,过程完全透明。

:laptop: GitHub 仓库: https://github.com/Sun-Yize/ThinkLingo (求个 Star :star:

:globe_with_meridians: 在线体验(开箱即用): https://thinklingo.yizesun.com

:sparkles: 核心亮点:为什么你需要 ThinkLingo?

1. :money_bag: 双模型架构,把 API 性价比拉满

翻译和推理用同一个贵模型太亏了!ThinkLingo 支持 LLM 架构,推理与翻译模型自由搭配,兼顾质量与成本。支持 DeepSeek、Qwen、OpenAI、Claude、Gemini。

select_model

2. :eye: 独创双栏 UI,推理过程拒绝黑盒

市面上很多翻译插件都是黑盒,但 ThinkLingo 做了双栏对照设计

  • 左栏: 你的母语翻译结果。

  • 右栏: 模型原始的英文推理过程(完美支持思维链 CoT 展示)。
    模型到底在想什么、逻辑有没有走偏,你随时可以审查,一目了然。

3. :brain: 智能提示词路由 (Prompt Routing)

内置了 20+ 个专家级模板(代码调试、数学求解、创意写作、学术论文等)。系统会自动识别你的问题意图,动态注入最合适的 System Prompt,连提示词工程都帮你省了。

system_prompt

4. :electric_plug: 全面拥抱主流 LLM,支持本地 Key

目前已支持 DeepSeek / OpenAI / Claude / Gemini / 通义千问,你可以随意跨平台混搭(比如 OpenAI 翻译 + DeepSeek 推理)。
支持在前端直接填入你自己的 API Key,密钥仅保存在你的浏览器本地,不经过任何第三方服务器,主打一个安全放心。

写在最后

项目基于 AGPL-3.0 完全开源。如果你也被大模型的“中文降智”困扰过,或者想最大化利用手头的 API 余额,强烈建议试一试。

大家在使用过程中有任何 Bug、建议,或者想接入新的模型渠道,欢迎直接在帖子里反馈,或者去 GitHub 提 Issue / PR!

传送门再放一遍:
:backhand_index_pointing_right: 在线体验:https://thinklingo.yizesun.com
:backhand_index_pointing_right: GitHub:https://github.com/Sun-Yize/ThinkLingo

觉得好用的话,顺手给个 Star :star: 支持一下开源吧!感谢各位佬!

4 个赞

有一说一, 并没有中文降智的感觉, 一开始还会翻译一下, 但其实最后感觉差不多, 也就懒得翻译了;

真按照多语言模型的理论来说, 不同语言只要语料足够, 应该是没有问题的

确实,日常对话和普通对话效果确实差别不大。不过一般prompt的语言和提供的参考材料语言一致时效果最好,比如英文文档就用英文问,中文截图就用中文问

另外不同语言 prompt 的输出差异在一些特定场景还是会存在的。比如Claude Opus 4.6(26年3月初)中文prompt写代码,回答着回答着有时会突然跳成韩文。说明模型对非英语语言的边界把控还不够稳定,至少在 coding 场景下全英文的效果明显更好。

1 个赞

翻译模型我感觉可以搞本地的lm studio、ollama之类的工具里面的模型,比如说已经部署进lm studio的smollm之类的模型,估计还能省一些tokens

感谢建议,本地llm接口确实也是好的思路,未来会考虑加进去。另外如果想节省token,除了调用llm,目前的网页本身也提供传统翻译方法,比如切换成谷歌翻译。虽然有时候翻译的不太准,但确实可以节省大量token

挺不错的,发现挺好玩的