告别 API 付费!用 Bob + Ollama 在 Mac 上白嫖谷歌最强翻译模型 TranslateGemma
在 macOS 上使用 Bob 划词翻译时,最头疼的往往是各种翻译 API 的额度与网络问题:DeepL 免费额度少且易被风控,OpenAI API 容易断连且需要持续付费,传统的机器翻译虽然免费但翻译效果差。 今天分享一个完全免费、零延迟、隐私性极高,且翻译质量直逼专业水平的终极方案:Bob + Ollama + TranslateGemma。通过在本地运行 Google 专门为翻译任务优化的 TranslateGemma 模型,实现真正的“翻译自由”。 1. 核心优势:为什么是 TranslateGemma? 在介绍具体步骤前,先简单说明一下为什么这个组合是目前 macOS 翻译方案的“天花板”: Google 官方翻译微调:TranslateGemma 是 Google 专门针对翻译任务微调的 Gemma 模型,支持 55 种语言互译。相比通用的 LLM,它在多语种翻译的准确性和信达雅程度上表现更出色。 完全免费 & 离线运行:模型运行在本地,不依赖任何第三方 API,不消耗流量,且完全不用担心隐私泄露(特别适合翻译公司敏感文档)。 极速响应:Ollama 完美适配 Apple Silicon (M1/M2/M3/M4) 的 Metal 架构,推理速度极快,体验上快于调用 Gemini 或 ChatGPT API。 生态成熟:配合 Bob 这款 macOS 最强翻译聚合工具,可以无缝融入日常工作流(划词、截图、输入框翻译)。 2. 准备工作 在开始之前,请确保你已经安装了以下软件: Ollama: https://ollama.com/ (用于运行本地大模型) Bob: https://bobtranslate.com/ (macOS 上的老牌翻译软件) 硬件建议: 建议使用 M1 芯片及以上的 Mac 设备。8GB 内存推荐使用 4b 量化版本,16GB 及以上可以尝试更高精度的模型。 3. 部署 TranslateGemma 模型 安装好 Ollama 后,我们需要拉取 Google 的翻译模型 TranslateGemma。 ...