通过Ollama搭建DeepSeek本地API:小白也能轻松上手!

在AI工具快速发展的今天,越来越多的人开始尝试将AI技术融入自己的工作和生活中。如果你也想体验一把“智能助手”的魅力,但又不想被云服务束缚,那么OllamaDeepSeek 的组合绝对是你不容错过的选择!本文将手把手教你如何通过Ollama搭建一个本地化的DeepSeek API,并且告诉你如何在像LobeChat这样的工具中使用它。即使你是完全的小白,也能轻松上手!

什么是Ollama?为什么选择它?

Ollama 是一个开源的AI模型框架,支持多种语言模型(包括GPT系列),并且可以让你将这些模型部署到本地服务器或私有云中。它的优势在于:

  1. 本地化运行:所有计算都在你的设备上完成,不用担心数据泄露。
  2. 速度快:相比调用远程API,本地运行延迟更低。
  3. 灵活配置:支持多种模型和自定义设置。

简单来说,Ollama 就是让你在自己的电脑或服务器上拥有一台“智能助手”,随时为你提供服务。

深度求索(DeepSeek)是什么?

深度求索(DeepSeek)是一家专注实现AGI的中国的人工智能公司,如果你对AI技术感兴趣,可能会听说过他们的模型和技术。对于本文来说,DeepSeek 的目标是让你通过Ollama轻松搭建一个本地化的AI服务

你需要准备什么?

首先来了解一下Ollama对硬件的要求。

Ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行。

Ollama 对硬件要求不高,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互。

  • CPU:多核处理器(推荐 4 核或以上)。

  • GPU:如果你计划运行大型模型或进行微调,推荐使用具有较高计算能力的 GPU(如 NVIDIA 的 CUDA 支持)。

  • 内存:至少 8GB RAM,运行较大模型时推荐 16GB 或更高。

  • 存储:需要足够的硬盘空间来存储预训练模型,通常需要 10GB 至数百 GB 的空间,具体取决于模型的大小。

  • 软件要求:确保系统上安装了最新版本的 Python(如果打算使用 Python SDK)。

一、安装Ollama

1. 下载Ollama

官方下载地址:https://ollama.com/download

2. 安装Ollama

Windows系统双击下载的安装文件,按提示安装Ollama:

Linux系统运行以下命令下载并启动Ollama:

1
curl -fsSL https://ollama.com/install.sh | sh

3. 验证安装

Windows系统打开命令提示符或 PowerShell,Linux系统打开终端,输入以下命令验证安装是否成功:

1
ollama --version

如果显示版本号,则说明安装成功。

这意味着Ollama已经成功启动,并且可以通过http://localhost:11434访问,页面会反馈我们 Ollama is running 的信息,可以看到Ollama已经在运行了。

4. 更改安装路径(可选)

如果需要将 Ollama 安装到非默认路径,可以在安装时通过命令行指定路径,例如:

1
OllamaSetup.exe /DIR="d:\ollama\"

这样可以将 Ollama 安装到指定的目录。

二、下载DeepSeek模型

1. 下载模型

官网搜索 将需要的模型下载到本地。下面以deepseek-r1为例

1
2
3
4
5
ollama pull deepseek-r1

# 如果下载7b,则在冒号后边添加7b,其它同理。

ollama run deepseek-r1:7b

根据自己电脑的性能选择模型大小。

这会开始下载DeepSeek模型到本地。下载完成后,你就可以通过Ollama调用这个模型了。

2. 自定义模型下载目录(可选)

  • Windows系统修改环境变量

    打开 系统 - 高级系统设置 - 环境变量 ,在 系统变量 里新建变量名为 OLLAMA_MODELS ,变量值为模型下载目录,例如 D:\ollama\models

  • Linux系统修改环境变量

    默认情况下,ollama模型的存储目录为: /usr/share/ollama/.ollama/models

    假如,我们要将模型的默认存储目录改为: /mnt/ollama/models

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    # 创建目录
    sudo mkdir -p /mnt/ollama/models

    # 将目标路径的所属用户和组改为root
    sudo chown -R root:root /mnt/ollama/models

    # 将其文件权限更换为777
    sudo chmod -R 777 /mnt/ollama/models

    # 打开服务文件
    sudo nano /etc/systemd/system/ollama.service

    # 添加环境变量
    User = root
    Group = root
    Environment="OLLAMA_MODELS=/mnt/ollama/models"
    Environment="OLLAMA_HOST=0.0.0.0:11434"

    重启服务

    1
    2
    3
    4
    5
    6
    7
    8
    # 刷新配置
    sudo systemctl daemon-reload

    # 重启ollama
    sudo systemctl restart ollama.service

    # 查看一下重启后的ollama运行状态
    sudo systemctl status ollama

到此,DeepSeek本地API已经创建完成了,到底我们该怎样使用这个API呢?我们接着往下看。

三、如何调用本地API

为以LobeChat和沉浸式翻译为例,介绍一下如何调用本地API,来提升我们日常学习、办公的效率。

LobeChat

  1. 安装LobeChat

    LobeChat 是一个开源的聊天工具,支持多种AI模型。你可以从GitHub上下载并安装它。

    我这里用 Docker Compose 来安装,如何安装 Docker Compose 请自行参考网上教程,这里不过多赘述。

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    # 进入root用户
    sudo su

    # 创建目录
    mkdir -p /root/lobechat

    # 跳到lobechat文件夹
    cd /root/lobechat

    # 创建docker-compose.yml文件
    touch docker-compose.yml

    # 打开docker-compose.yml进行修改
    nano docker-compose.yml

    复制下方配置文件到 docker-compose.yml 里,然后 Ctrl+x ,输入 Y 保持并退出。

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    version: '3.8'
    services:
    lobe-chat:
    image: docker.1ms.run/lobehub/lobe-chat
    container_name: lobe-chat
    restart: always
    ports:
    - "3210:3210" # 冒号左边可以修改为其他未被占用的端口
    environment:
    - ACCESS_CODE=xxxxxxxxx # 访问密码可以自定义
    - OLLAMA_PROXY_URL=http://0.0.0.0:11434

    启动服务

    1
    docker-compose up -d

    拉取完镜像,并启动服务后,打开浏览器访问 http://localhost:3210 就可以进入LobeChat界面了。

  2. 在LobeChat里调用本地API

    在LobeChat中,进入 应用设置 页面,填写访问密码。

    接着,到语言模型里配置本地API。

    1
    2
    # 查看已下载的模型
    ollama list

    保存配置后,你就可以在LobeChat中使用本地的DeepSeek模型了!

沉浸式翻译

  1. 安装沉浸式翻译

    沉浸式翻译是一款浏览器扩展程序,你可以完全免费地使用它来实时翻译外语网页,PDF翻译,EPUB电子书翻译,视频双语字幕翻译等。

    根据自己的浏览器安装对应的扩展。

  2. 在沉浸式翻译里调用本地API

    打开工具的设置界面,找到 翻译服务 选项,再 添加OpenAI兼容服务

    自定义服务

    翻译服务名称: 随意填写,能辨认就行。

    API接口地址: http://localhost:11434/v1/chat/completions (在最后不要添加/

    APIKEY: ollama

    模型: 已经下载到本地的模型名称,不知道名称的小伙伴,在终端输入 ollama list 查看

    再将翻译服务设置为刚刚创建的,你就可以在沉浸式翻译中使用本地的DeepSeek API了。

  3. 注意

    在此请大家注意环境变量的问题,在沉浸式翻译的官方文档里提到。

    • macOS:命令行执行 launchctl setenv OLLAMA_ORIGINS "*",再启动 App。
    • Windows:控制面板 - 系统属性 - 环境变量 - 用户环境变量新建 2 个环境变量:变量名OLLAMA_HOST变量值0.0.0.0,变量名OLLAMA_ORIGINS变量值*,再启动 App。
    • Linux:命令行执行 OLLAMA_ORIGINS="*" ollama serve

总结

通过Ollama搭建一个本地化的DeepSeek API其实并不难!只需要几步简单的命令操作,你就能拥有一台属于自己的“智能助手”。而像LobeChat和沉浸式翻译这样的工具,则让你能够更方便地将AI能力应用到实际的工作和生活中。

如果你在过程中遇到任何问题,欢迎随时留言交流!让我们一起探索AI技术的魅力吧!