本地部署deepseek等大模型的最简单方法(如Llamama)、千问等),有手就行
时间:2025-06-24 12:32:05 来源:新华社
【字体:  

总结:

1。根据计算机显存的大小选择合适的模型:

如DeepSeek-R1。7B。4.7GB。ollama run deepseek-r1。

 2.操作步骤(非常简单,但效果因模型大小而异):首先安装Ollama,然后使用。ollama run 模型名称(如deepseek-r1)可自动下载并运行。

详细步骤:。

1。安装ollama。

我的计算机系统版本:window11。

https://ollama.com/download。

根据您的操作系统选择安装方法:

macOS。
# 方式1:直接下载安装 访问 https://ollama.ai/download 下载macos安装包,双击安装。

# 方式2:Homebrew安装安装 brew install ollama。

Linux。
curl -fsSL https://ollama.ai/install.sh | sh。

Windows<

[责任编辑:百度一下]
检察日报数字报 | 正义网 |
Copyrights©最高人民检察院 All Rights Reserved.