推理模型接入指南

本文将指导您如何在 PIG AI 平台中接入和使用 DeepSeek 深度推理模型。DeepSeek 是一个强大的 AI 模型,可以帮助您完成各种复杂的推理任务。

什么是 DeepSeek

DeepSeek 是一个先进的人工智能模型,专门设计用于处理复杂的推理任务。它可以:

  • 理解和分析复杂问题
  • 提供详细的解答和推理过程
  • 支持多种语言的交互

使用方式

您可以通过以下两种方式使用 DeepSeek 模型:

1. 在线模型(推荐新手使用)

适用场景
这种方式最简单,适合所有用户,无需部署,直接使用官方 API 即可。

设置步骤

  1. 登录 PIG AI 平台
  2. 进入"模型配置"页面,点击"新增模型"
  3. 按以下信息填写:
    • 供应商:选择 DeepSeek
    • 类型:选择 推理模型
    • 模型名称:DeepSeek Reasoner

获取 API KEY

  1. 访问 DeepSeek 官方平台
  2. 注册并登录账号
  3. 在平台中创建您的 API KEY

配置示例

DeepSeek 配置示例

2. 私有模型部署(适合进阶用户)

如果您需要更好的性能和数据隐私保护,可以选择部署私有模型。

部署前提条件
需要有 Linux 或类 Unix 系统环境,显卡显存需求至少 16GB 可用显存(针对 14B 模型),建议有基本的命令行操作经验。

具体步骤

  1. 部署 ollama
  2. 运行以下命令部署模型:
ollama run deepseek-r1:14b

配置示例

私有模型配置示例
重要提醒
确保配置的模型名称与 ollama 运行时的模型名称完全一致,部署 14B 模型需要至少 16GB 显存,请确保您的硬件满足要求。

开始使用

完成配置后,您可以在"AI 助手 > 深度推理"中开始使用 DeepSeek 模型:

使用界面示例

常见问题

1. 模型无法正常调用?

  • 检查 API KEY 是否正确配置
  • 确认模型名称是否与配置匹配
  • 检查网络连接是否正常

2. 私有部署时显存不足?

  • 可以尝试使用较小的模型版本
  • 清理其他占用显存的程序
  • 升级硬件配置