电脑欧一(Ollama)哪里下载,一篇超详细的全平台安装指南
在人工智能大模型浪潮席卷全球的今天,许多技术爱好者和开发者都希望能在自己的电脑上轻松运行强大的开源大语言模型,而无需复杂的配置。Ollama 正是为此而生的一款革命性工具,它将复杂的模型管理、运行环境封装得极为简单,让你只需一条命令,就能在本地“召唤”出各种AI模型。
但许多初次接触 Ollama 的朋友,尤其是看到“欧一”这个音译名时,都会产生一个共同的疑问:电脑欧一(Ollama)到底在哪里下载?
别担心,这篇文章将为您提供一份清晰、详尽的官方下载与安装指南,确保您能顺利开启自己的本地AI之旅。
第一步:认清“真身”—— Ollama 官方网站是唯一来源
最重要的一点是:请务必从 Ollama 的官方网站下载。 这不仅能确保您获得最新、最安全的版本,还能避免从第三方下载站获取到被篡改或捆绑了恶意软件的安装包。
Ollama 的官方域名非常容易记忆,请认准: https://ollama.com/
您可以在任何主流浏览器中输入这个网址,即可进入 Ollama 的官方网站,网站设计简洁明了,下载入口非常醒目。
第二步:选择适合您操作系统的版本
Ollama 是一款跨平台应用,支持目前主流的三大桌面操作系统:macOS、Windows 和 Linux,在官网上,您会看到对应的下载选项。
A. Windows 用户安装指南
Windows 用户是目前 Ollama 用户群体中非常庞大的一部分,安装过程也十分简单。
-
访问官网并下载:
- 打开浏览器,进入 https://ollama.com/。
- 您会看到一个显眼的 "Download for Windows" 按钮,点击它。
- 浏览器会自动下载一个名为
OllamaSetup.exe的安装程序文件。
-
运行安装程序:
- 找到下载好的
OllamaSetup.exe文件,双击运行。 - Windows 可能会弹出“用户账户控制”(UAC)提示,询问您是否允许此应用对您的设备进行更改,请点击“是”。
- 找到下载好的
-
按照安装向导完成安装:
- 安装程序会引导您完成整个过程,通常只需点击“下一步”即可。
- 重要提示:在安装过程中,请确保勾选了 "Add Ollama to the PATH environment variable"(将 Ollama 添加到系统环境变量)选项,这能让您在后续的命令行(CMD 或 PowerShell)中直接使用
ollama命令,而无需输入完整路径。
-
验证安装:
- 安装完成后,打开 命令提示符(CMD) 或 PowerShell。
- 在窗口中输入命令
ollama --version,然后按回车。 - 如果看到类似
ollama version 0.1.32的版本号输出,就说明安装成功了!
B. macOS 用户安装指南
macOS 用户有两种推荐的安装方式,其中通过 Homebrew 安装是更现代、更方便的选择。
使用 Homebrew(推荐)
Homebrew 是 macOS 上的包管理器,如果您的系统已安装,这是最简单的方法。
- 打开终端(Terminal)。
- 在终端中输入以下命令并回车:
brew install ollama
- Homebrew 会自动下载并完成 Ollama 的安装。
直接下载安装包
- 访问 https://ollama.com/。
- 点击 "Download for macOS" 按钮,下载
.dmg格式的磁盘映像文件。 - 打开下载的
.dmg文件,将 Ollama 图标拖拽到“应用程序”(Applications)文件夹中即可。
C. Linux 用户安装指南
Linux 用户同样可以通过命令行轻松搞定,这里以 Ubuntu/Debian 为例。
- 打开终端(Terminal)。
- 根据官方文档,执行以下命令来添加 Ollama 的官方 GPG 密钥和软件源:
# 添加 Ollama 的官方 GPG 密钥 curl -fsSL https://ollama.com/install.sh | sh
- 这个安装脚本会自动检测您的 Linux 发行版,并配置好相应的软件源和依赖项,完成安装。
第三步:安装后的首次使用——下载您的第一个模型
安装好 Ollama 只是第一步,真正的乐趣在于使用它来运行模型。
- 打开终端或命令行工具。
- 下载模型:Ollama 提供了丰富的模型库,您可以直接命令下载,要下载流行的 LLaMA 3 模型(8B 参数版本),请输入:
ollama run llama3:8b
- 耐心等待:Ollama 会自动从网络下载模型文件(首次下载可能需要一些时间,具体取决于您的网络速度和模型大小)。
- 开始对话:下载完成后,您会直接进入模型的交互式命令行界面,您可以像和 ChatGPT 对话一样,直接输入您的问题或指令,模型会即时为您生成回答,输入
/bye可以退出会话。
总结与提醒
- 唯一官方渠道:https://ollama.com/ 是您下载 Ollama 的唯一、安全的选择。
- 跨平台支持:无论您用的是 Windows、macOS 还是 Linux,都有成熟的官方安装方案。

- 核心是命令行:Ollama 的核心操作是通过命令行完成的,虽然它也提供了简单的 Web UI(通过
ollama serve启动后访问http://localhost:11434),但其强大和便捷之处在于命令行的直接交互。 - 模型资源:您可以在 https://ollama.com/library 查看所有可用的模型及其命令。
希望这篇指南能帮助您顺利找到并安装 Ollama,开启在本地探索大语言模型的奇妙旅程!