在 Linux 上部署与配置 Ollama:本地运行 AI 模型
随着人工智能技术的飞速发展,将大型语言模型 (LLM) 本地化运行变得越来越受到关注。Ollama 是一个出色的工具,它使得在 Linux 系统上部署和管理各种 LLM 变得前所未有的简单。本文将详细介绍如何在 Linux 环境中部署和配置 Ollama,以便您能够高效地在本地运行 AI 模型。
1. Ollama 安装
Ollama 的安装过程非常直接,通过其官方提供的一个脚本即可完成。该脚本会自动下载并设置 Ollama,包括为其创建一个 systemd 服务,以便于后续的管理。
安装步骤:
打开终端并执行以下命令:
bash
curl -fsSL https://ollama.com/install.sh | sh
验证安装:
安装完成后,您可以通过查询 Ollama 的版本来验证是否安装成功:
bash
ollama -v
如果命令返回 Ollama 的版本信息,则表示安装成功。
2. Ollama 服务管理 (systemd)
Ollama 默认会作为一个 systemd 服务运行,这意味着它可以随系统自动启动,并且可以通过标准 systemd 命令进行管理。
以下是一些常用的 systemd 命令:
- 检查服务状态:
bash
sudo systemctl status ollama - 手动启动服务:
bash
sudo systemctl start ollama - 停止服务:
bash
sudo systemctl stop ollama - 设置开机自启:
bash
sudo systemctl enable ollama - 重启服务:
在进行任何配置更改后,通常都需要重启 Ollama 服务以使更改生效。
bash
sudo systemctl restart ollama - 重新加载 systemd 守护进程:
如果您直接修改了 Ollama 的 systemd 服务文件,需要重新加载 systemd 守护进程。
bash
sudo systemctl daemon-reload - 查看服务日志:
bash
journalctl -e -u ollama
3. Ollama 配置 (环境变量)
您可以通过设置环境变量来定制 Ollama 的行为。这些环境变量通常在 Ollama 的 systemd 服务文件中进行配置。
配置步骤:
- 编辑 Ollama systemd 服务文件:
推荐使用sudo systemctl edit ollama.service命令。这会创建一个覆盖文件(override file),在保留原始服务文件的同时允许您进行自定义配置。
bash
sudo systemctl edit ollama.service -
设置环境变量:
在打开的编辑器中,找到[Service]部分,并添加Environment="VARIABLE_NAME=value"来设置您需要的环境变量。常用环境变量:
OLLAMA_HOST:定义 Ollama 监听的地址。默认情况下,Ollama 只监听127.0.0.1(本地主机)。如果您希望网络上的其他机器也能访问 Ollama,可以将其设置为0.0.0.0:11434。
ini
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"OLLAMA_MODELS:设置自定义的模型存储目录。请确保ollama用户对该目录拥有读写权限。
ini
[Service]
Environment="OLLAMA_MODELS=/path/to/your/models"
如果您更改了模型目录,请确保设置正确的权限:
bash
sudo chown -R ollama:ollama /path/to/your/modelsOLLAMA_DEBUG:启用调试输出。OLLAMA_ORIGINS:配置允许访问 Ollama 服务器的来源 URL,这对于基于 Web 的界面非常有用。HTTPS_PROXY:如果 Ollama 需要通过代理拉取模型,请设置此变量。请注意,Ollama 使用 HTTPS 进行模型拉取,因此应避免使用HTTP_PROXY。
-
保存并退出编辑器。
- 重新加载 systemd 守护进程并重启 Ollama:
bash
sudo systemctl daemon-reload
sudo systemctl restart ollama
4. GPU 加速 (可选)
为了获得更好的性能,特别是在处理大型模型时,Ollama 可以利用 GPU 进行加速。
- NVIDIA GPU: 需要安装 CUDA 驱动。您可以使用
nvidia-smi命令来验证驱动是否安装成功。 - AMD GPU: 需要安装 ROCm 驱动。
5. 硬件要求
Ollama 及其运行的 LLM 可能会消耗大量资源。以下是运行 7B 参数模型所需的最低推荐硬件配置:
- RAM: 最低 16GB。
- 硬盘空间: 至少 50GB,用于 Ollama、Llama3:8b 等模型以及可能的 Web 界面。如果需要运行更多模型,则需要额外的空间。
- CPU: 推荐配备 4 到 8 核的较新的 Intel 或 AMD CPU。
- GPU: 虽然不是强制要求,但强烈建议使用 GPU 以获得更好的性能体验。
6. 本地运行 AI 模型
完成安装和配置后,您就可以开始在本地拉取和运行 AI 模型了。
拉取模型示例:
例如,要拉取 Llama3 模型:
bash
ollama run llama3
列出本地模型:
您可以使用以下命令查看本地已下载的模型列表:
bash
ollama list
结论
Ollama 为在 Linux 上本地运行 AI 模型提供了一个强大且易于使用的解决方案。通过简单的安装步骤、灵活的 systemd 服务管理以及可配置的环境变量,您可以轻松地部署和定制您的本地 AI 模型运行环境。利用 Ollama,您可以更好地控制数据隐私,减少对云服务的依赖,并享受快速、高效的 AI 模型推理体验。