本文将指导您如何在 PIG AI 平台中接入和使用 DeepSeek 深度推理模型。DeepSeek 是一个强大的 AI 模型,可以帮助您完成各种复杂的推理任务。

什么是 DeepSeek?

DeepSeek 是一个先进的人工智能模型,专门设计用于处理复杂的推理任务。它可以:

  • 理解和分析复杂问题
  • 提供详细的解答和推理过程
  • 支持多种语言的交互

使用方式

您可以通过以下两种方式使用 DeepSeek 模型:

1. 在线模型(推荐新手使用)

这种方式最简单,适合所有用户,无需部署,直接使用官方 API 即可。

设置步骤:

  1. 登录 PIG AI 平台
  2. 进入”模型配置”页面,点击”新增模型”
  3. 按以下信息填写:
    • 供应商:选择 DeepSeek
    • 类型:选择 推理模型
    • 模型名称:DeepSeek Reasoner

获取 API KEY

  1. 访问 DeepSeek 官方平台
  2. 注册并登录账号
  3. 在平台中创建您的 API KEY

配置示例:

2. 私有模型部署(适合进阶用户)

如果您需要更好的性能和数据隐私保护,可以选择部署私有模型。

部署前提条件:

  • 需要有 Linux 或类 Unix 系统环境
  • 显卡显存需求:至少 16GB 可用显存(针对 14B 模型)
  • 建议有基本的命令行操作经验

具体步骤:

  1. 首先按照【私有模型】章节的说明部署 ollama
  2. 运行以下命令部署模型:
ollama run deepseek-r1:14b

配置示例:

注意事项:

  • 确保配置的模型名称与 ollama 运行时的模型名称完全一致
  • 部署 14B 模型需要至少 16GB 显存,请确保您的硬件满足要求

开始使用

完成配置后,您可以在”AI 助手 > 深度推理”中开始使用 DeepSeek 模型:

常见问题

  1. 模型无法正常调用?

    • 检查 API KEY 是否正确配置
    • 确认模型名称是否与配置匹配
    • 检查网络连接是否正常
  2. 私有部署时显存不足?

    • 可以尝试使用较小的模型版本
    • 清理其他占用显存的程序
    • 升级硬件配置