diff --git a/docSite/assets/imgs/faq1.png b/docSite/assets/imgs/faq1.png new file mode 100644 index 000000000..6a5223c76 Binary files /dev/null and b/docSite/assets/imgs/faq1.png differ diff --git a/docSite/assets/imgs/faq2.png b/docSite/assets/imgs/faq2.png new file mode 100644 index 000000000..a05e9ebd2 Binary files /dev/null and b/docSite/assets/imgs/faq2.png differ diff --git a/docSite/assets/imgs/quizApp1.png b/docSite/assets/imgs/quizApp1.png new file mode 100644 index 000000000..b8dd79e78 Binary files /dev/null and b/docSite/assets/imgs/quizApp1.png differ diff --git a/docSite/content/zh-cn/docs/development/faq.md b/docSite/content/zh-cn/docs/development/faq.md index 91e606503..a01b2be4c 100644 --- a/docSite/content/zh-cn/docs/development/faq.md +++ b/docSite/content/zh-cn/docs/development/faq.md @@ -19,6 +19,16 @@ images: [] ## 二、通用问题 +### 通过sealos部署的话,是否没有本地部署的一些限制? +![](/imgs/faq1.png) +这是索引模型的长度限制,通过任何方式部署都一样的,但不同索引模型的配置不一样,可以在后台修改参数。 + +### sealos怎么挂载 小程序配置文件 + +新增配置文件:/app/projects/app/public/xxxx.txt +如图 +![](/imgs/faq2.png) + ### 本地部署的限制 具体内容参考https://fael3z0zfze.feishu.cn/wiki/OFpAw8XzAi36Guk8dfucrCKUnjg。 diff --git a/docSite/content/zh-cn/docs/faq/app.md b/docSite/content/zh-cn/docs/faq/app.md index 5797a3f60..0d9c220b9 100644 --- a/docSite/content/zh-cn/docs/faq/app.md +++ b/docSite/content/zh-cn/docs/faq/app.md @@ -38,3 +38,32 @@ A: 通常是由于上下文不一致导致,可以在对话日志中,找到 | | | | | --- | --- | --- | | ![](/imgs/image-85.png) | ![](/imgs/image-86.png) | ![](/imgs/image-87.png) | +在针对知识库的回答要求里有, 要给它配置提示词,不然他就是默认的,默认的里面就有该语法。 + +## 工作流操作:一个工作流,以一个问题分类节点开始,根据不同的分类导入到不同的分支,访问相应的知识库和AI对话,AI对话返回内容后,怎么样不进入问题分类节点,而是将问题到知识库搜索,然后把历史记录一起作为背景再次AI查询。 + +做个判断器,如果是初次开始对话也就是历史记录为0,就走问题分类;不为零直接走知识库和ai。 + +## 实时对话,设置 fastgpt 定时,比如每隔 3000MS 去拿一次 webhook发送过来的消息到AI页面 + +定时执行没有这么高频率的去拿信息的,想要实现在企微里面的实时对话的机器人, +目前通过低代码的工作流构建应该是不行的,只能自己写代码,然后去调用 FastGPT 的 APIKey 回复。企业微信似乎没有提供「自动监听」群聊消息的接口(或是通过 at 机器人这种触发消息推送)。应该只能发消息给应用,接收这个 https://developer.work.weixin.qq.com/document/path/90238 文档中的消息推送实现实时对话。或者是定时去拿群聊消息,通过这个文档所示的接口https://developer.work.weixin.qq.com/document/path/98914,然后用这个接口 https://developer.work.weixin.qq.com/document/path/90248 去推送消息。 + +## 工作流连接数据库 + +工作流提供该连接数据库功能,用这个数据库连接的 plugin 可以实现 text2SQL,但是相对危险,不建议做写入等操作。 + +![](/imgs/quizApp1.png) + +## 关于循环体,协助理解循环体的循环条件和终止条件、循环的方式,循环体内参数调用后、在循环体内属于是局部作用域的参数还是全局作用域的参数 + +可理解为 for 函数,传一个数组,每个数据都执行一次。 + +## 公式无法正常显示 + +添加相关提示词,引导模型按 Markdown 输出公式 + +```bash +Latex inline: \(x^2\) +Latex block: $$e=mc^2$$ +``` diff --git a/docSite/content/zh-cn/docs/faq/dataset.md b/docSite/content/zh-cn/docs/faq/dataset.md index 589b57160..e095761e6 100644 --- a/docSite/content/zh-cn/docs/faq/dataset.md +++ b/docSite/content/zh-cn/docs/faq/dataset.md @@ -16,6 +16,14 @@ weight: 910 * **文件处理模型**:用于数据处理的【增强处理】和【问答拆分】。在【增强处理】中,生成相关问题和摘要,在【问答拆分】中执行问答对生成。 * **索引模型**:用于向量化,即通过对文本数据进行处理和组织,构建出一个能够快速查询的数据结构。 +## 知识库支持Excel类文件的导入 + +xlsx等都可以上传的,不止支持CSV。 + +## 知识库tokens的计算方式 + +统一按gpt3.5标准。 + ## 基于知识库的查询,但是问题相关的答案过多。ai回答到一半就不继续回答。 FastGPT回复长度计算公式: @@ -37,7 +45,7 @@ FastGPT回复长度计算公式: ![](/imgs/dataset2.png) -1. 私有化部署的时候,后台配模型参数,可以在配置最大上文时候,预留一些空间,比如 128000 的模型,可以只配置 120000, 剩余的空间后续会被安排给输出 +另外私有化部署的时候,后台配模型参数,可以在配置最大上文时,预留一些空间,比如 128000 的模型,可以只配置 120000, 剩余的空间后续会被安排给输出 ## 受到模型上下文的限制,有时候达不到聊天记录的轮次,连续对话字数过多就会报上下文不够的错误。 @@ -61,4 +69,4 @@ FastGPT回复长度计算公式: ![](/imgs/dataset2.png) -1. 私有化部署的时候,后台配模型参数,可以在配置最大上文时候,预留一些空间,比如 128000 的模型,可以只配置 120000, 剩余的空间后续会被安排给输出 \ No newline at end of file +另外,私有化部署的时候,后台配模型参数,可以在配置最大上文时,预留一些空间,比如 128000 的模型,可以只配置 120000, 剩余的空间后续会被安排给输出。 \ No newline at end of file