
DeepSeek-R1 发布,性能对标 OpenAI,手把手教你本地部署,让你实现 AI 大模型自由
前言
简直逆天 炸裂
DeepSeek发布并开源 R1 模型 性能对标 OpenAI o1 正式版
DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,能在仅有极少标注数据的情况下,大幅度提高了模型推理能力。 在数学、代码、自然语言推理等任务上,性能赶超 OpenAI o1 正式版。
DeepSeek开源了DeepSeek-R1 和 DeepSeek-R1-Zero两个模型,660B 参数。 并通过模型蒸馏,开源 6 个小模型。
通过这篇文章,我们最终会实现:
大模型跑在本地的Mac上,通过内网穿透,让你在所有的 iOS 生态系统(macOS、iOS、WatchOS、Vision Pro)中都能用上端侧大模型,实现无过滤、安全、私密和多模态的体验。
安装教程
1、Mac 端部署本地大模型
1.1安装Ollama
- 首先打开官网Ollama,https://ollama.com/ ,然后下载,根据自己的设备的系统下载安装就行。
- 点击 install,安装命令行。
- 打开终端输入
ollama -v
,如果输出了版本号,说明 ollama 安装成功了。
1.2安装DeepSeek-R1模型
-
回到 Ollama官网首页,选择 models
进去之后会发现里面有很多模型,有非常火的llama3、阿里的千问等等。这里我们选择第一个DeepSeek-R1
然后你可以看到每个模型的下面有蓝色的
7B
、70B
的字样,这个就是模型的参数量(B代表Billion,十亿),参数量越大,模型越牛逼。当然也越消耗机器的性能,如果你机器的配置足够高,你可以下载参数量大的模型,效果会更好。其中 32B 和 70B 模型在多项能力上超越 OpenAI o1-mini。我的设备是M1 Max,32G,这里为了演示我选择8B 的模型。你可以根据自己的设备下载参数更大的模型。
下载方法就是打开终端输入
ollama run deepseek-r1:8b
系统会自动下载模型。
下载完就会出现交互页面。
让我们来试一下效果,😂
现在我们就在本地部署了一个专属于我们自己的大模型。
2、下篇文章教大家在其他设备远程访问本地大模型
文章已更新想要在其他设备远程访问本地大模型的可以看这一篇文章“私有化部署本地大语言模型,让你所有设备可以安全、私密,随时随地访问!”
本文是原创文章,采用 CC BY-NC-ND 4.0 协议,完整转载请注明来自 Crazy miao
评论
匿名评论
隐私政策
你无需删除空行,直接评论以获取最佳展示效果