ollama部署及运行大语言模型

本文介绍ollama的搭建部署以及基本使用,选用版本为此文完成时间(2025年3月)的最新正式版本v0.5.12。

ollama与LLM简介

ollama简介

‌Ollama是部署和运行大语言模型(Large Language Model,LLM)的开源框架,本地便捷部署私有化使用可不依赖于网络,且支持多种语言模型,支持模型微调与自定义。ollama使用GPU也可使用CPU运行。

LLM简介

大语言模型(LLM)是一种基于深度学习的人工智能模型,能够处理和生成自然语言文本。它们通常由数十亿到数千亿个参数组成,训练数据涵盖了大量的文本数据,如书籍、文章、网站内容等。

Ollama部署

硬件配置要求

  • GPU(显卡): NVIDIA GPU(如 RTX 30/40 系列)、Apple M1/M2/M3/M4 芯片。
  • CPU:如果没有强大的 GPU,Ollama 也可以在 CPU 上运行,最低四核及以上。
  • 内存:大语言模型通常需要较高的内存(如 16GB 或 32GB,最低8GB),否则可能会因内存不足而崩溃或速度下降。
  • 存储 :模型加载速度依赖于磁盘速度,使用 SSD 远优于 HDD。
  • 操作系统:Windows / macOS / Linux

需注意,由于 Ollama 主要面向 macOS 和 Linux,Windows 运行时需要WSL 2(Windows Subsystem for Linux),若无 WSL 2,Ollama 在 Windows 上可能无法运行。

部署安装

安装方式

在ollama官网https://ollama.com/download下在并安装,选择对应的操作系统。

Linux的一键脚本进行安装

curl -fsSL https://ollama.com/install.sh | sh

docker的拉取镜像安装

#拉取镜像
docker pull ollama/ollama

#运行容器
docker run -p 11434:11434 ollama/ollama

ollama使用及命令

ollama基本命令

#查看帮助
ollama -h

#查看版本
ollama -v

#下载模型 <model-name>替换成对应模型
ollama pull <model-name>
#删除模型
ollama rm <model-name>

#运行模型(若未下载模型会自动下载并运行) <model-name>替换成对应模型
ollama run <model-name>
#运行模型举例
ollama run deepseek-r1:7b
ollama run qwen2.5-coder:14b

#列出本地所有模型
ollama list
#列出正在运行的模型
ollama ps

#查看模型状态
ollama status <model-name>

#启动ollama服务
ollama serve
#停止ollama服务
ollama stop
#重启ollama服务
ollama restart

#更新ollama
ollama update

#查看日志
ollama logs
#清理缓存
ollama clean

ollama使用

运行完模型后,已经可以在控制台命令行进行对话。也可以通过友好的交互界面来进行交互使用

Open WebUI

Open WebUI是一个开源的大模型交互web应用,可以接入本地大模型及外部 openai api,open-webui的GitHub页面

ollama局域网开放端口

ollama默认端口11434,需要把 11434 端口进行放行,可以让局域网或互联网上任何设备进行访问。还需要设置环境变量 OLLAMA_HOST 变量值为 0.0.0.0:11434

ollama全环境变量

环境变量示例说明
OLLAMA_HOST0.0.0.0:11434服务监听地址与端口
OLLAMA_PORT11434修改默认端口
OLLAMA_MODELS\ollama\model自定义模型存储路径
OLLAMA_KEEP_ALIVE24h模型在内存中存活时间
OLLAMA_NUM_PARALLEL2并发处理请求数
OLLAMA_GPU_OVERHEAD1024000000利用RAM/VRAM混合加载大模型(示例1G)
OLLAMA_MAX_LOADED_MODELS2同时加载模型数量

Windows 设置环境变量

  1. 首先,通过在任务栏中单击它来退出 Ollama。
  2. 启动设置 (Windows 11) 或控制面板 (Windows 10) 应用程序并搜索环境变量
  3. 单击 Edit environment variables(编辑您账户的环境变量)。
  4. 编辑或为您的用户帐户创建新变量 、 等。OLLAMA_HOST OLLAMA_MODELS
  5. 单击 确定/应用 保存。
  6. 从 Windows 开始菜单启动 Ollama 应用程序。

Linux 设置环境变量

Ollama 作为 systemd 服务运行

#编辑 systemd 服务
systemctl edit ollama.service

对于每个环境变量,在下面进行添加

[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"

保存并退出后,重新加载并重新启动 Ollama

systemctl daemon-reload
systemctl restart ollama

Mac 设置环境变量

launchctl setenv OLLAMA_HOST "0.0.0.0:11434"

输入命令后,重新启动 Ollama 应用程序

ollama模型存储默认路径

  • MacOS:~/.ollama/models
  • Linux:/usr/share/ollama/.ollama/models
  • Windows:C:\Users\%username%\.ollama\models

闸总710

感谢观看闸总博客,本博客为个人学习交流使用
订阅
提醒
guest

0 评论
内联反馈
查看所有评论