AI Studio星河社区生产力实践:基于文心一言快速搭建知识库问答
  xlSZiuI98z7y 2023年11月12日 17 0

还在寻找基于文心一言搭建本地知识库问答的方案吗?AI Studio星河社区带你实战演练(支持私有化部署)!

相信对于大语言模型(LLM)有所涉猎的朋友,对于“老网红”知识库问答不会陌生。自从大模型爆火后,开发者都希望尽快进行开发实战,企业都希望尽快在产品中集成LLM的能力,结合业务快速落地,那最直接的方式就是构建知识库问答。本项目由AI Studio星河社区开发者「SWHL」创作并发布体验应用,应用中使用AI Studio SDK(文末获取文档)提供的能力完成文心一言与向量检索增强的结合,与此同时,开发者「SWHL」提供的开源项目还支持本地私有化部署的版本,助力个人和企业完成知识问答系统搭建。

AI Studio星河社区生产力实践:基于文心一言快速搭建知识库问答_开发者

项目亮点

1、除大语言模型接口需要单独部署外,其他部分均可使用CPU

2、整个项目模块化,不依赖lanchain库,各个部分都可以轻松替换,代码简单易懂

3、WebUI向量检索Log可视化

4、支持接入多个LLM模型

5、支持本地私有化部署

应用体验Demo

AI Studio星河社区生产力实践:基于文心一言快速搭建知识库问答_概率分布_02

应用参数解读:

  • max_length:生成结果时的最大token数
  • top_p:用于控制模型生成文本时,选择下一个单词的概率分布的范围。具体来说,当使用top_p参数时,模型将考虑累积概率分布中概率之和最大的最小集合中的所有单词,并在其中选择下一个单词
  • temperature:用于调整模型生成文本时的创造性程度,较高的temperature将使模型更有可能生成新颖、独特的文本,而较低的温度则更有可能生成常见或常规的文本
  • Search Top_K:从文档向量数据库中召回的前K个相关内容,用于和问题拼接为完整内容送到大模型中,可选值有5,10, 15

工作流程

1、解析文档并存入数据库

AI Studio星河社区生产力实践:基于文心一言快速搭建知识库问答_开发者_03

2、检索并回答问题

AI Studio星河社区生产力实践:基于文心一言快速搭建知识库问答_概率分布_04

搭建知识库问答应用

Fork该项目

AI Studio星河社区生产力实践:基于文心一言快速搭建知识库问答_github_05

启动进入线上开发环境

选择CPU环境即可

AI Studio星河社区生产力实践:基于文心一言快速搭建知识库问答_开发者_06

AI Studio星河社区每周均可免费获得一定数量算力

查看文件进行开发

AI Studio星河社区生产力实践:基于文心一言快速搭建知识库问答_开发者_07

本地私有化部署

创作者已将该项目进行开源,有私有化部署需求的可移步至该项目Github,获取代码文件进行部署。

项目作者:SWHL,RapidAI开源组织成员,日常研究方向为大模型落地和CV相关,包括OCR和目标检测等方向。

  • 作者主页

https://github.com/SWHL

  • RapidAI开源组织主页

https://github.com/RapidAI

  • 该项目Github

https://github.com/RapidAI/Knowledge-QA-LLM

AI Studio星河社区已上线SDK开发工具,支持文心一言、Embedding等能力的高效使用。

【版权声明】本文内容来自摩杜云社区用户原创、第三方投稿、转载,内容版权归原作者所有。本网站的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@moduyun.com

  1. 分享:
最后一次编辑于 2023年11月12日 0

暂无评论

推荐阅读
xlSZiuI98z7y