步骤二:使用命令行操作
安装完成后,你可以通过命令行运行模型。输入以下命令来确认安装成功:
输入【ollama list】
步骤三:使用第三方客户端
为了方便操作,你可以使用第三方客户端来连接本地安装的 DeepSeek R1 模型。以下是推荐的客户端:
推荐客户端: Cherry Studio >>Cherry Studio官网<<
Cherry Studio 是一个强大的 AI 客户端,支持多种 AI 模型,并且内置了许多实用功能。
配置 Cherry Studio:
打开 Cherry Studio 客户端,配置 Ollama 安装的模型。
配置时,填入以下信息:
默认API地址: http://localhost:11434/v1
模型名: deepseek-r1:1.5b
步骤四:通过 Cherry Studio 使用模型
在 Cherry Studio 中配置好模型后,你可以直接开始使用 DeepSeek R1 进行各种推理任务。
三、使用第三方 API
如果你没有显卡或者不方便在本地部署 DeepSeek,可以使用第三方 API 服务。以下是一些第三方 API 提供商的选择:
硅基流动(Silicon Flow):
网址:https://cloud.siliconflow.cn
注册账号后,你可以使用免费的 API Key,连接 DeepSeek R1 模型进行使用。