感谢巨硬, Phi-3 Mini 让我八年前的破笔记本也能玩本地大模型翻译了

用 Ollama 跑了下 4B 量化版本,翻译效果已经差不多追上谷歌机翻了,终于可以实现文档翻译自由了。