本章节将指导您快速入门 PIG AI 的 RAG (检索增强生成) 功能,基础篇使用【硅基流动】平台提供充足的免费调用额度,满足大多数用户的日常需求。先熟悉本章节内容,再深入研究私有化部署章节方案,一口吃不了大胖子。

模型类型模型名称
聊天模型deepseek-ai/DeepSeek-V3
向量模型Qwen/Qwen3-Embedding-8B
排序模型Qwen3-Reranker-8B
视觉模型Qwen/Qwen2.5-VL-72B-Instruct

一、配置模型

获取大模型 KEY

推荐使用硅基流动平台获取免费的大模型 Token。该平台部署的均是开源模型,安全可信,且便于后续私有化部署。

👉 点击访问硅基流动平台

配置模型

新增模型【硅基流动】配置支持,如果发现没有对应模型名称,请更新最新的代码或者手动录入(下拉框支持手动输入)。

在模型配置页面,选择对应的模型类型并配置相关参数:

模型类型推荐模型
聊天模型deepseek-ai/DeepSeek-V3
向量模型Qwen/Qwen3-Embedding-8B
重排模型Qwen3-Reranker-8B
视觉模型Qwen/Qwen2.5-VL-72B-Instruct

二、配置向量数据库

milvus 提供 cloud 版本在线使用版本,适和本地快速测试使用,刚上手 PIGAI 请使用这个方式

PIG AI 向量配置

三、知识库配置

3.1 创建知识库

  • 知识库管理 > 新增
  • 高级配置、安全配置参数 正常情况下不需要修改
  • 匹配率、匹配条数:决定了大模型匹配的幻觉率,比如匹配率越低,在知识内容较少的情况下,大模型匹配的幻觉率越高(胡说八道)。建议根据自己实际情况动态调整此处参数

3.2 上传资料

  • 知识库管理 > 新增

3.3 切片管理

  • 上传至知识库的资料,会自动切片,切片管理可以查看切片详情,点击切片即可编辑。
  • 当右上角显示已训练的标识时,则说明文档已经调用大模型生成了切片的向量并存储到向量数据库。

四、问答测试调用

AI 助手点击具体的文档库,进行针对性的问答调用。