在使用 macOS 时,系统自带的翻译功能虽然方便,但在处理长难句、学术论文或非正式俚语时,翻译结果往往略显生硬。而像 ChatGPT、DeepL 这样的在线翻译,不仅需要稳定的网络环境,还涉及敏感数据的云端隐私问题。
为了解决这些痛点,我开发了 Mac-Lite-Translator。它不仅能在你的 Mac 上 100% 本地运行,还集成了强大的 Google Gemma 12B 模型,通过苹果官方的 MLX 框架 榨干 M 系列芯片的每一滴性能。

📺 演示视频
先来看看它的实际表现吧!你可以看到极速的响应速度和精准的学术翻译模式:
🚀 技术内核:为什么选 MLX + Gemma?
传统的本地翻译工具往往依赖通用的 CPU 推理,速度缓慢。Mac-Lite-Translator 的核心优势在于:
- Apple MLX 框架支持: 专门为 Apple Silicon (M1-M4) 统一内存架构优化的深度学习框架,推理速度远超通用的推理后端。
- Gemma 12B 模型: 来自 Google 的先进大模型,经过微调后专门针对翻译任务优化,12B 的参数规模在 4-bit 量化下,既保证了翻译的深度(如上下文理解、文学修辞),又保证了极速响应。
🧐 小白科普:什么是 TranslateGemma?
如果你是第一次听说这个名字,不用担心。简单来说,TranslateGemma 是由 Google 官方推出的一系列专门为“翻译”任务量身打造的开源大模型。
- 它的由来: 它是基于 Google 强大的 Gemma 2 模型(和 Gemini 同源)进行“二次深造”(微调)而来的。
- 为什么更强: 普通的大模型虽然也能翻译,但 TranslateGemma 学习了海量的专业翻译语料。因此在处理长难句、自动语种识别以及保持译文自然度方面,表现得更像一名“职业翻译官”。
- 支持广泛: 它原生支持 55 种语言之间的相互翻译,是目前开源社区中翻译质量最顶尖的模型之一。
💡 它能为你做什么?
1. 多样化的翻译模式
不同于原生翻译只有一种输出,你可以一键切换多种翻译风格:
- 学术模式 (Academic): 针对论文、专业文档优化,术语严谨,句式正式。
- 休闲模式 (Casual): 适合日常对话、社交媒体,语言更具亲和力。
- 网页聊天 (Web Chat): 适配口语化的快速交流场景。
2. 深度词典功能
当你翻译单个单词或短语时,脚本会自动进入 词典模式:
- 提供标准的 IPA 音标(英/美)。
- 给出详细的 定义、同义词。
- 列举 实际例句,帮助你真正掌握单词。
3. 系统级无缝集成
通过 macOS 的 快捷指令 (Shortcuts) 和 右键菜单,你可以像使用原生功能一样调用 Mac-Lite-Translator。只需选中一段文字,右键点击,极速翻译即刻呈现在屏幕上。
🔒 隐私与成本:真正的本地化
- 100% 隐私保护: 你的所有翻译请求都不会离开你的电脑。无论是公司机密还是个人隐私,都无需担心被上传至云端。
- 0 运行成本: 无需订阅费,无需购买 ChatGPT 或 DeepL 的 API Key。只要你的电脑有电,翻译就是免费的。
- 离线可用: 在飞机上、地下室或其他无网络环境,它依然是你的得力助手。
🛠 如何开始?
项目已在 GitHub 开源,你只需简单的几步配置即可体验:
- 项目 GitHub 地址: Jingyuan-Zheng/Mac-Lite-Translator_TranslateGemma
- 推荐环境: 建议 16GB 及以上内存的 Apple Silicon Mac 以获得最佳体验。
结语
浏览器的职责是展示信息,而翻译工具的职责是打破隔阂。Mac-Lite-Translator 让先进的生成式 AI 不再局限于云端。它不仅是一个工具,更是对 Mac 生产力边界的一次小小探索。
如果你觉得这个工具有用,欢迎去 GitHub 点个 Star!