MODEL-ZOO 字节跳动GOKU视频生成模型 字节跳动推出了 Goku,这是一种专为高质量视频生成而设计的高级 AI 模型。通过利用文本到视频和图像到视频的合成,Goku 重新定义了 AI 驱动的内容创作并突破了创意界限。
MODEL-ZOO 在CPU上运行DeepSeek-R1 在 CPU 上运行 LLM 提供了一种扩大可访问性的替代方案,允许更多用户在现有硬件上利用 AI。本指南探讨了在 CPU 上有效使用 DeepSeek R1 的方法。
MODEL-ZOO 3个DeepSeek-R1平替推理模型 人工智能在逻辑推理、问题解决和可解释性方面正在迅速发展。虽然 DeepSeek 的 R1 引起了关注,但它并不是唯一在推理任务中表现出色的免费 AI 模型。
MODEL-ZOO VPTQ低位LLM量化算法 在 MMLU 等任务上,使用 VPTQ 的 2 位量化几乎实现了与原始 16 位模型相当的性能。此外,它能够在单个 GPU 上运行 Llama 3.1 405B,同时使用的内存比 70B 模型少!
MODEL-ZOO DeepSeek R1 vs. V3:如何选择? 在手机或桌面上使用 DeepSeek 应用程序时,我们可能会不确定何时选择 R1(也称为 DeepThink),而不是日常任务的默认 V3 模型。
MODEL-ZOO Gemini 2.0 Flash vs. DeepSeek R1 当我第一次看到 Google Gemini 的价格时,我打算将它与精简版、性能较弱的 R1 型号进行对比。我完全不相信即如此便宜的模型会如此强大。
MODEL-ZOO DeepSeek-R1的推理能力分析 DeepSeek 提出了一个模型,该模型的推理能力可与 OpenAI-o1 相媲美,尽管其参数只是 OpenAI-o1 的一小部分,训练成本也低得多。
MODEL-ZOO DeepSeek GRPO vs. OpenAI RLHF DeepSeek使用简单的强化学习(GRPO)来训练像 DeepSeek-R1 这样的 LLM,本文将尝试了解GRPO与OpenAI使用的RLHF强化学习有何不同。
MODEL-ZOO 蒸馏DeepSeek-R1到自己的模型 在本博客中,我们将介绍如何使用LoRA等技术将 DeepSeek-R1 的推理能力蒸馏到较小的模型(如 Microsoft 的 Phi-3-Mini)中。
MODEL-ZOO DeepSeek-R1本地运行成本 DeepSeek 将这场生成竞赛提升到了另一个水平,人们甚至准备在本地运行 671B 参数。但在本地运行如此庞大的模型可不是开玩笑;你需要在硬件方面取得一些重大进步,才能尝试推理。
MODEL-ZOO DeepSeek-R1 671B本地运行指南 原始的 DeepSeek R1 是一个 6710 亿参数的语言模型,由 Unsloth AI 团队进行了动态量化,大小减少了 80%(从 720 GB 减少到 131 GB),同时保持了强大的性能。
MODEL-ZOO OpenAI o3-mini vs. DeepSeek R1 DeepSeek 发布 R1 后,我承认我给了 OpenAI 很多批评。从极其昂贵的价格到完全搞砸的 Operator,再到发布一个缓慢、无法使用的伪装成 AI 代理的玩具,OpenAI 在 1 月份已经遭受了很多失败。
MODEL-ZOO 用Kokoro TTS制作AI配音 如果我告诉你,现在可以完全免费使用一种不仅好而且可能比 ElevenLabs 等行业领先(且昂贵)服务更好的工具来创建专业品质的 AI 配音,你会怎么想?听起来好得令人难以置信?
MODEL-ZOO DeepSeek R1-Zero & R1分析 借助 DeepSeek 最新发表的研究,我们可以更好地进行推测。关键见解是,LLM 推理系统更高程度的新颖性适应性(和可靠性)是在三个维度上实现的。