用LM Studio本地运行大模型

LM Studio 是一款流行的 GUI 应用程序,它允许具有基本计算机知识的用户在其 Linux 机器上轻松下载、安装和运行大型语言模型 (LLM)。

用LM Studio本地运行大模型

LM Studio 是一款流行的 GUI 应用程序,它允许具有基本计算机知识的用户在其 Linux 机器上轻松下载、安装和运行大型语言模型 (LLM)。

可以使用 LM Studio 聊天界面轻松安装、设置和访问流行的 LLM 模型,例如 Llama 3、Phi3、Falcon、Mistral、StarCoder、Gemma 等。

这样,你就不会被 OpenAI 的 ChatGPT 等专有的基于云的 AI 所困扰,并且可以轻松地在离线状态下私下运行自己的 LLM,而无需为完整功能支付任何额外费用。

在本文中,我将向你展示如何在 Linux 上安装 LM Studio、下载并使用 GPT-3 模型。

系统要求

在 PC 上本地运行 LLM 模型需要满足某些最低要求才能确保获得良好的体验。确保你至少拥有...

  • 具有至少 8 GB VRAM 的 NVIDIA 或 AMD 显卡。
  • 20 GB 的免费存储空间(SSD 是更好的选择)。
  • 6 GB DDR4 RAM。

1、在 Linux 上安装 LM Studio

首先,访问 LM Studio 官方网站,点击“下载适用于 Linux 的 LM Studio”下载 LM Studio AppImage。

下载完成后,打开终端,导航到下载目录,并为 LM Studio AppImage 分配可执行权限。

$ cd ~/Downloads/
$ chmod u+x LM_Studio-*.AppImage

接下来,使用以下命令解压 AppImage 的内容,这将创建一个名为“squashfs-root”的新目录。

$ ./LM_Studio-*.AppImage --appimage-extract

现在,导航到提取的“squashfs-root”目录并为“chrome-sandbox”文件分配适当的权限和所有权。

$ cd squashfs-root/
$ sudo chown root:root chrome-sandbox
$ sudo chmod 4755 chrome-sandbox

最后,使用以下命令在同一目录中运行 LM Studio 应用程序:

$ ./lm-studio

就是这样!现在,你可以使用 LM Studio 搜索、下载和访问你喜欢的开源 LLM。有关设置和访问 GPT-3 的说明,请参阅下一部分。

2、在 LM Studio 中访问 GPT-3 模型

要访问 GPT-3 模型,你需要先下载它。为此,请单击左侧面板中的搜索图标,键入“GPT-3”作为模型名称,然后根据你的系统规格选择适当的模型大小。

下载过程将开始,你可以通过单击底部面板来跟踪进度。

下载完成后,单击左侧面板上的聊天图标,从顶部下拉菜单中选择 GPT-3 模型,然后在底部输入字段中输入消息,开始与 GPT-3 模型聊天。

就是这样!你现在可以在 GPT-3 模型上本地询问任何问题。响应时间可能因系统规格而异。例如,我有一个不错的 GPU,具有 8 GB 的 VRAM 和 16 GB 的 DDR4 RAM,大约需要 45 秒才能生成 150-200 个单词。

如果你的情况响应太差,可以尝试使用不同的 LLM 模型。我建议使用 Meta Llama 3,并确保选择最小的模型尺寸。

3、结束语

在本文中,我们学习了如何使用 LM Studio 在本地 PC 上下载和访问开源 LLM 模型,如 GPT-3 和 Llama 3。现在,在你从云服务过渡到使用 PC 攻读 LLM 之前,请记住它使用 GPU,这会消耗电力并影响 GPU 寿命。

因此,如果你是 AI 爱好者和隐私倡导者,它不会困扰你,但如果你担心电费或 PC 性能较差,那么不幸的是,基于云的 AI 可能是你唯一的选择。


原文链接:How to Run LLMs Using LM Studio in Linux (for Beginners)

汇智网翻译整理,转载请标明出处