From 2a17afff73efc0c1c03d9dea45a123ffc5d097e4 Mon Sep 17 00:00:00 2001 From: c121914yu Date: Thu, 17 Apr 2025 05:08:06 +0000 Subject: [PATCH] deploy: 3196470e11b7618dfac81aa875685af96ea0f3a1 --- .../custom-models/ollama/index.html | 2 +- docs/development/docker/index.html | 16 +- docs/development/faq/index.html | 18 +- docs/development/openapi/chat/index.html | 150 +- docs/development/openapi/dataset/index.html | 170 +- docs/development/openapi/share/index.html | 30 +- docs/guide/admin/sso/index.html | 24 +- docs/guide/dashboard/workflow/http/index.html | 16 +- .../knowledge_base/api_dataset/index.html | 20 +- js/doc-generate-llms.js | 108 + llms-full.txt | 21053 ++++++++++++++++ llms.txt | 231 + 12 files changed, 21615 insertions(+), 223 deletions(-) create mode 100644 js/doc-generate-llms.js create mode 100644 llms-full.txt create mode 100644 llms.txt diff --git a/docs/development/custom-models/ollama/index.html b/docs/development/custom-models/ollama/index.html index 888b867a7..394447a8f 100644 --- a/docs/development/custom-models/ollama/index.html +++ b/docs/development/custom-models/ollama/index.html @@ -47,7 +47,7 @@ ollama serve #安装完成后,使用该命令启动服务 ollama serve #安装完成后,同样启动服务

Windows

在 Windows 系统中,你可以从 Ollama 官方网站 下载 Windows 版本的安装程序。下载完成后,运行安装程序,按照安装向导的提示完成安装。安装完成后,在命令提示符或 PowerShell 中启动服务:

   ollama serve #安装完成并启动服务后,你可以在浏览器中访问 http://localhost:11434 来验证 Ollama 是否安装成功。
-  

补充说明

如果你是采用的主机应用 Ollama 而不是镜像,需要确保你的 Ollama 可以监听0.0.0.0。

1. Linxu 系统

如果 Ollama 作为 systemd 服务运行,打开终端,编辑 Ollama 的 systemd 服务文件,使用命令sudo systemctl edit ollama.service,在[Service]部分添加Environment=“OLLAMA_HOST=0.0.0.0”。保存并退出编辑器,然后执行sudo systemctl daemon - reload和sudo systemctl restart ollama使配置生效。

2. MacOS 系统

打开终端,使用launchctl setenv ollama_host “0.0.0.0"命令设置环境变量,然后重启 Ollama 应用程序以使更改生效。

3. Windows 系统

通过 “开始” 菜单或搜索栏打开 “编辑系统环境变量”,在 “系统属性” 窗口中点击 “环境变量”,在 “系统变量” 部分点击 “新建”,创建一个名为OLLAMA_HOST的变量,变量值设置为0.0.0.0,点击 “确定” 保存更改,最后从 “开始” 菜单重启 Ollama 应用程序。

Ollama 拉取模型镜像

在安装后 Ollama 后,本地是没有模型镜像的,需要自己去拉取 Ollama 中的模型镜像。命令如下:

+  

补充说明

如果你是采用的主机应用 Ollama 而不是镜像,需要确保你的 Ollama 可以监听0.0.0.0。

1. Linxu 系统

如果 Ollama 作为 systemd 服务运行,打开终端,编辑 Ollama 的 systemd 服务文件,使用命令sudo systemctl edit ollama.service,在[Service]部分添加Environment=“OLLAMA_HOST=0.0.0.0”。保存并退出编辑器,然后执行sudo systemctl daemon - reload和sudo systemctl restart ollama使配置生效。

2. MacOS 系统

打开终端,使用launchctl setenv ollama_host “0.0.0.0"命令设置环境变量,然后重启 Ollama 应用程序以使更改生效。

3. Windows 系统

通过 “开始” 菜单或搜索栏打开 “编辑系统环境变量”,在 “系统属性” 窗口中点击 “环境变量”,在 “系统变量” 部分点击 “新建”,创建一个名为OLLAMA_HOST的变量,变量值设置为0.0.0.0,点击 “确定” 保存更改,最后从 “开始” 菜单重启 Ollama 应用程序。

Ollama 拉取模型镜像

在安装 Ollama 后,本地是没有模型镜像的,需要自己去拉取 Ollama 中的模型镜像。命令如下:

   # Docker 部署需要先进容器,命令为: docker exec -it < Ollama 容器名 > /bin/sh
 ollama pull <模型名>
   

测试通信

在安装完成后,需要进行检测测试,首先进入 FastGPT 所在的容器,尝试访问自己的 Ollama ,命令如下:

diff --git a/docs/development/docker/index.html b/docs/development/docker/index.html
index 8d1b5ef75..30791c016 100644
--- a/docs/development/docker/index.html
+++ b/docs/development/docker/index.html
@@ -34,9 +34,9 @@ FAQ
article

Docker Compose 快速部署

使用 Docker Compose 快速部署 FastGPT

前置知识

  1. 基础的网络知识:端口,防火墙……
  2. Docker 和 Docker Compose 基础知识
  3. 大模型相关接口和参数
  4. RAG 相关知识:向量模型,向量数据库,向量检索

部署架构图

推荐配置

PgVector版本

非常轻量,适合知识库索引量在 5000 万以下。

环境最低配置(单节点)推荐配置
测试(可以把计算进程设置少一些)2c4g2c8g
100w 组向量4c8g 50GB4c16g 50GB
500w 组向量8c32g 200GB16c64g 200GB

Milvus版本

对于亿级以上向量性能更优秀。

点击查看 Milvus 官方推荐配置

环境最低配置(单节点)推荐配置
测试2c8g4c16g
100w 组向量未测试
500w 组向量

zilliz cloud版本

Zilliz Cloud 由 Milvus 原厂打造,是全托管的 SaaS 向量数据库服务,性能优于 Milvus 并提供 SLA,点击使用 Zilliz Cloud

由于向量库使用了 Cloud,无需占用本地资源,无需太关注。

前置工作

1. 确保网络环境

如果使用OpenAI等国外模型接口,请确保可以正常访问,否则会报错:Connection error 等。 方案可以参考:代理方案

2. 准备 Docker 环境