Lorqa - 一款本地AI原生的AI翻译应用,端到端的翻译体验

Lorqa 是一款适用于 macOS 的AI原生端到端AI翻译应用。

它使用LLM(大型语言模型)在你的设备上本地运行,将不同语言之间的文字准确而自然地翻译出来。无需网络,也无需担心隐私被泄漏,一切都在你的电脑中完成。

Lorqa Preview

App Store下载

核心功能

  • 本地运行 LLM,支持Qwen3,Gemma3,后续会继续增加

  • 离线可用,无网环境下依然工作

  • 数据仅存于本地,保护你的内容安全和隐私安全

  • 智能切片技术,支持长文本翻译,再也不用担心字数限制的问题

  • 简洁界面,专注端到端的翻译体验

心路历程

翻译是一个很大众的需求,市面上各种各样的翻译软件层出不穷。有很多大厂出手参与此类应用竞争,可以说有很多翻译的解决方案。 过去很长一段时间我日常使用的是DeepL应用版的翻译App,很方便只要选中文本快捷键即可完成内容的翻译,在使用过程中也有一些小的可以吐槽的点,例如:我发现DeepL的翻译速度不如网页版的一些翻译软件速度快,另外翻译的文本数量会收到一些限制,一些长文本还是得通过其他方法。

我发现现在LLM(文本语言模型)也常作为翻译工具来使用,LLM有良好的多语言能力,现在Qwen3,Gemma3,这类小模型也具备很好的翻译能力。在使用LLM翻译的时候有很多的选择,大多数是网页版,也有一部分是本地部署的模型。这些产品通常没有为翻译场景打造出端到端的翻译体验,总是差点意思。

我过去做过PocketLM(移动端的LLM本地推理客户端),对于小LLM的能力水平有一定的了解,并且对于模型不同设备的推理速度和载入速度也很熟悉。于是我开始着手使用Apple生态结合LLM打造这个端到端的翻译macOS App, 整个实现过程也相当顺利,经过测试我发现Qwen3 0.6B 4bit的效果已经和DeepL的翻译能力不相上下,我还同时增加了Qwen3 1.7B ,Gemma3系列模型作为备选为用户提供多重选择。

Lorqa在第一次打开的时候需要选择模型完成下载流程,此后只需要每次载入一次模型即可随时翻译。我在我的机器测试Qwen3 0.6B的推理速度为 280Token/S 速度比DeepL要快。此外针对长文本,会进行切片翻译并合并一起解决了文本字数的限制。 目前因为App Store分发涉及到应用沙盒,快捷键需要用户在 系统设置/隐私与安全/辅助功能/ + (从应用程序选择Lorqa) 自行设置,方可使用快捷键翻译功能。

我制作这个产品的动机非常个人化。我比较关注这个需求是否有其他人真实存在。关于后续的规划也想听听其他人的反馈~

配置快捷键和快速翻译教程

:postbox:邮箱联系
[email protected]

不知道有没有windows下运行的类似工具?