DeepSeek-R1本地运行指南

厌倦了为高级 AI 模型支付高昂的订阅费用?认识 DeepSeek-R1,这是一款免费、开源且隐私优先的推理 AI,可与 OpenAI 每月 200 美元的 o1 模型相媲美。在本指南中,我将向你展示如何在本地安装 DeepSeek-R1,利用其编码能力,并可能每月节省数百美元。

1、DeepSeek-R1简介

DeepSeek-R1 不仅仅是另一个 AI 模型,它是推理 AI 模型的一场革命,它提供的性能可与 OpenAI 每月 200 美元的 o1 模型相媲美,同时它还是免费、开源、本地部署时私有的,并且针对数学、编码和逻辑问题解决等任务进行了优化。以下是它具有突破性的原因:

模型比较: DeepSeek-R1 vs. OpenAI-o1
*输入令牌;**输出令牌

强化学习 (RL) 优于监督微调:

  • 与 OpenAI 对标记数据集的依赖不同,DeepSeek-R1 使用纯 RL 来开发推理技能。它通过反复试验进行学习,无需分步指导即可生成问题的解决方案。
  • 这种方法使其在 AIME 2024(数学基准)上获得了 79.8% 的 pass@1 分数,略优于 OpenAI-o1。RL 过程还支持自我验证和长链推理——这是完成复杂任务的关键。

成本效率:

  • API 成本:DeepSeek 的 API 比 OpenAI-o1 便宜 96.4%(每百万输入令牌 0.55 美元 vs. 15 美元)。
  • 本地部署:在消费硬件上运行精简版本(15 亿-700 亿参数),完全避免云费用。

开源灵活性:

  • 无限制地对 DeepSeek-R1 进行微调或将其集成到您的项目中。它的 6 个精简模型(基于 Llama 和 Qwen 架构)可满足各种需求,从轻量级应用程序(15 亿)到高性能任务(6710 亿)。
DeepSeek-R1 与 OpenAI-o1 之间的性能对比

DeepSeek-R1 在推理密集型任务方面表现出色,而 OpenAI-o1 在常识方面则占有优势。对于专注于数学、编码或成本效率的开发人员来说,DeepSeek 是更好的选择。

2、DeepSeek-R1本地安装指南

这是隐私优先方法,使用 Ollama 作为本地运行 DeepSeek-R1 的主干。以下是如何设置 Ollama、DeepSeek-R1(在不同的提炼模型中)和 Open Web UI 进行可视化。

首先使用终端(macOS/Linux)安装 Ollama:

curl -fsSL https://ollama.com/install.sh | sh
ollama -v #check Ollama version

然后通过 Ollama 下载 DeepSeek-R1。选择适合你机器的提炼模型。 deepseek-r1:671b 具有完整的 R1 功能。

# Default 7B model (4.7GB - ideal for consumer GPUs)
ollama run deepseek-r1

# Larger 70B model (requires 24GB+ VRAM)
ollama run deepseek-r1:70b

# Actual DeepSeek-R1 (requires 336GB+ VRAM for 4-bit quantization) 
ollama run deepseek-r1:671b

设置 Open Web UI(私有接口)。确保你的机器上安装了 docker,然后通过在终端上运行来安装 Open Web UI:

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

访问 http://localhost:3000 并选择 deepseek-r1:latest。所有数据都保留在你的机器上 - 没有云跟踪或数据泄露。

3、DeepSeek-R1本地测试

让我们尝试让模型创建一个贪吃蛇游戏。如下图所示,模型执行了所有思路以获得最佳响应。确实,它所花费的时间不是很好,但至少我们得到了模型更高效的响应。

DeepSeek-R1 7B 在 Python 中创建贪吃蛇游戏

它做得很不错,但花了将近 3 分钟!

DeepSeek-R1 用 Python 创建的贪吃蛇游戏

4、将 DeepSeek-R1 集成到你的项目中

有两种集成方法。第一种是使用 DeepSeek-R1 本地部署(如上一节所示),第二种是使用 DeepSeek 服务器的云 API(可用于生产)。

4.1 本地部署(隐私优先)

使用你的 Ollama 实例作为 OpenAI 兼容端点:

import openai

# Connect to your local Ollama instance
client = openai.Client(
    base_url="http://localhost:11434/v1",
    api_key="ollama"  # Authentication-free private access
)

response = client.chat.completions.create(
    model="deepseek-r1:XXb", # change the "XX" by the distilled model you choose
    messages=[{"role": "user", "content": "Explain blockchain security"}],
    temperature=0.7  # Controls creativity vs precision
)

4.2 使用官方 DeepSeek-R1 云 API

对于可扩展的应用程序,请使用 DeepSeek 的官方 API,你可以在此处通过创建帐户并生成一个密钥来获取 DeepSeek API 密钥:

import openai
from dotenv import load_dotenv
import os

load_dotenv()
client = openai.OpenAI(
    base_url="https://api.deepseek.com/v1",
    api_key=os.getenv("DEEPSEEK_API_KEY")
)

response = client.chat.completions.create(
    model="deepseek-reasoner",
    messages=[{"role": "user", "content": "Write web scraping code with error handling"}],
    max_tokens=1000  # Limit costs for long responses
)

5、结束语

DeepSeek-R1 为昂贵的 AI 解决方案(如 OpenAI-o1)提供了强大的、隐私优先的替代方案。如果你正在开发复杂的应用程序,这个免费的开源模型可以为你节省资金并保护你的数据。


原文链接:How to Install and Use DeepSeek-R1: A Free and Privacy-First Alternative to OpenAI (Save $200/Month)

汇智网翻译整理,转载请标明出处