8个DeepSeek-R1私有化部署方案

许多人(尤其是开发人员)想要使用新的DeepSeek R1推理模型,但担心将数据发送给DeepSeek。阅读本文了解如何在本地和没有互联网的情况下运行DeepSeek R1推理模型,或者通过可信赖的托管服务来运行它。

Part 1

你可以在本地运行模型,因此你的私人数据会保留在您的机器上,不会传输到任何LLM托管提供商(如DeepSeek)。同样地,通过可信赖的托管服务,您的数据会被传输到第三方托管提供商而不是DeepSeek。

在本地/离线使用LMStudio、Ollama和Jan,或者通过Groq、Fireworks AI和Together AI等LLM服务端平台运行DeepSeek R1,有助于消除数据共享和隐私问题。

1、LMStudio

使用LMStudio在本地运行DeepSeek R1

LMStudio提供可以离线运行的DeepSeek R1的蒸馏版本。首先,下载 LMStudio,启动它,然后点击左侧面板上的发现选项卡,下载、安装和运行任何蒸馏版本的R1。观看使用LMStudio在本地运行DeepSeek R1YouTube视频以获取分步快速指南。

2、Ollama

下载Ollama

使用Ollama,您可以使用单个命令在没有任何网络的情况下100%运行DeepSeek R1模型。首先,安装Ollama,然后运行以下命令以拉取并运行DeepSeek R1模型:

ollama run deepseek-r1

您还可以拉取并运行以下DeepSeek R1模型的蒸馏Qwen和Llama版本。

Qwen蒸馏DeepSeekR1模型

  • DeepSeek-R1-Distill-Qwen-1.5B: ollama run deepseek-r1:1.5b
  • DeepSeek-R1-Distill-Qwen-7B: ollama run deepseek-r1:7b
  • DeepSeek-R1-Distill-Qwen-14B: ollama run deepseek-r1:14b
  • DeepSeek-R1-Distill-Qwen-32B: ollama run deepseek-r1:32b

Llama蒸馏DeepSeekR1模型

  • DeepSeek-R1-Distill-Llama-8B: ollama run deepseek-r1:8b
  • DeepSeek-R1-Distill-Llama-70B: ollama run deepseek-r1:70b

下面的预览展示了如何使用Ollama运行DeepSeek-R1-Distill-Llama-8B

ollama run deepseek-r1

观看使用Ollama本地LLM工具运行DeepSeek R1YouTube视频以获取快速演示。

3、Jan:离线与DeepSeek R1聊天

使用Jan下载DeepSeek R1

Jan将其描述为一个开源的ChatGPT替代品。它是一个本地优先的LLM工具,可以100%离线运行DeepSeek R1模型。使用Jan运行DeepSeek R1仅需按照下图所示的三个步骤操作。

使用Jan运行DeepSeek R1的步骤

下载Jan并前往左侧面板上的Hub选项卡,搜索并下载来自Hugging Face的任何蒸馏R1 GGUF模型。

DeepSeek R1 Qwen蒸馏模型

DeepSeek R1 Llama蒸馏模型

一旦您使用Jan下载了任何蒸馏的R1模型,您可以按如下所示运行它。

使用Jan本地运行DeepSeek R1
Part 2
DeepSeek R1托管选项

虽然DeepSeek R1模型最近才发布,但一些可信的LLM托管平台已经支持它。如果您不想使用上述列出的离线方法,可以从以下提供者之一访问该模型。这里可能缺少一些LLM托管平台。但是,以下是您可以访问DeepSeek R1模型及其蒸馏版本的主要平台。

4、Groq

在Groq上运行DeepSeek R1

Groq支持DeepSeek-R1-Distill-Llama-70B版本。要使用它,请访问https://groq.com/并在首页直接运行模型。

或者,您可以通过点击主页右上角的Dev Console按钮来在Groq上运行R1模型,如下面的预览所示。

使用Groq Dev Console运行DeepSeek R1

5、Azure AI Foundry

在Azure AI Foundry上访问DeepSeek R1

如上面的预览所示,您可以在Microsoft的Aure AI Foundry上访问DeepSeek R1的蒸馏版本。访问Azure AI Foundry网站以开始使用

其他可以运行DeepSeek R1蒸馏模型的流行LLM托管平台包括以下链接。

在together.ai上运行DeepSeek R1

6、DeepSeek R1和开源模型的未来

在本文中,你了解了如何使用本地优先的LLM工具(如LMStudio、Ollama和Jan)离线运行DeepSeek R1模型。你还了解了如何使用可扩展且企业级的LLM托管平台来运行该模型。DeepSeek R1模型是OpenAI o1模型的一个极好的替代品,能够推理完成高度需求和逻辑任务。

在撰写本文时,DeepSeek R1模型可在可靠的LLM托管平台如Azure AI FoundryGroq上访问。这些平台确保其托管的语言模型的可靠性和安全性。在未来,我们预计会有更多公司和开源开发者复制DeepSeek R1模型并使其适用于不同的用例。此外,许多本地优先的LLM工具和托管服务可能会支持DeepSeek R1模型及其蒸馏版本。


原文链接:DeepSeek R1 — The Best Local LLM Tools To Run Offline

汇智网翻译整理,转载请标明出处