Ollama 部署 deepseek 笔记

前言

记录使用 ollama 部署 deepseek 的过程。

安装 ollama

ollama download,下载好以后双击安装。安装 OK 以后,就会看到如下界面:

1
2
# 在你本地的终端命令行工具里,输入如下命令,就会开始安装一个 llama3.2b 模型了
ollama run llama3.2

Llama 3.2 是由 Meta 开发的开源大型语言模型系列,包括轻量级文本模型(1B 和 3B)和视觉模型(11B 和 90B)。这些模型适用于多种应用场景,如文本摘要、指令跟踪、图像理解及视觉推理,特别适合需要在边缘设备上高效运行并保护用户隐私的任务 1。它们支持多语言处理,并能在智能手机等设备上实现智能化升级,提供个性化的用户体验和服务。

ollama 本地端口是 11434,通过通过访问 http://127.0.0.1:11434/ 来查看运行状态:

建议运行前,先运行:export OLLAMA_HOST=0.0.0.0:11434,这样方便局域网内可以通过本机 IP:11434 方式进行访问。

为了避免每次运行之前都设置这个环境变量,可以提前在终端工具的本地文件中加入上面这个命令:

部署 deepseek-r1 本地模型

ollama/models 这里可以看到一系列支持的模型,并且,提供了部署命令:

deepseek 官方的监控:https://status.deepseek.com/

ollama 常用命令

1
2
# 列举本地模型文件
ollama list

Page Assist - 本地 AI 模型的 Web UI

chrome 插键 Page Assist - 本地 AI 模型的 Web UI 提供了一个 UI 界面方便和 ollama 的模型进行交互,比在终端界面方便多了。

安装 Open WebUI

为了能够通过浏览器更好的界面来使用模型,可以通过 NAS 安装 Open WebUI 来对接 ollama 的模型。

安装镜像:dyrnq/open-webui

官方有 Wiki 说明:open-webui

两个重要的变量:

  • OLLAMA_BASE_URL=http://<IP>:11434 —— Ollama 服务器的地址
  • WEBUI_SECRET_KEY=<password> 可以理解成密码,自定义即可

设置本地 ollama 模型的地址:

参考

  • 本地部署DeepSeek R1模型, 有手就行,含全功能的webUI界面
  • 适配Ollama的前端界面Open WebUI
  • 本地部署大模型openwebui(ollama部署的deepseetR1)联网搜索的一种解决方案
Michael翔 wechat
ヾノ≧∀≦)o 欢迎订阅公众号「Coder魔法院」☑工具控 ☑编程 ☑读书☑电影
「🤓 码字不易,来杯Coffee👇」