【腾讯云云上实验室】用向量数据库融合AI技术:构建下一代智能客服平台
  LyJBRSvfEdxZ 2023年11月25日 15 0

前言

为什么说用好大模型离不开向量数据库呢?

回答这个问题之前我们先来理解一下什么是向量?

比如在我们看到这个水果时,我们知道它是一个苹果。但在“苹果”这个词被发明之前,人们是如何描述这个水果的呢?通过观察它的颜色、大小、形状、纹理等特征,我们可以更清晰地定义这个水果。将这些特征用数字来表达,我们就可以得到一个向量。

image.png 一旦复杂的图像被转换成计算机可识别的数字表示,计算机就可以“认识”这个苹果了。但是,当新的苹果出现时,计算机还能识别它吗?当然可以,因为新的图像在向量空间中与最接近的向量具有高相似性,计算机可以通过比较向量之间的相似度来进行识别。

AI训练中的向量维度

今天让我们惊叹不已的人工智能,往往通过上千个向量维度来学习训练,他们就像是AI大模型的眼睛,当AI大模型遇上庞大的向量数据,这组黄金搭档如何让硅基生物更聪明呢?

image.png 以大语言模型为例。简单来说在训练时, 喂给它的词句都会先转化为向量数据, 当训练数据里出现多组类似的语言时,在向量数据组成的高维空间,相近的词汇就会距离更近,语言模型就可以逐渐捕捉到词汇间的语意和语法。 举例说明: 它会更明白苹果西瓜语意上接近,但是和公交车相差甚远,接下来模型需要对上下文进行理解,此时Transformer架构就开始发挥作用,从每个词自身出发,观察和其他词之间的关系权重。 例如这句话里“我昨天买的苹果很好吃”, “很好吃”和“我”关系权重最大,权重结果被当作新的维度记录下来,一句更复杂的话,也转化成了带权重的向量,原模型经过查询计算。生成权重最高的答案输出给你,一次问答就完成了

快速检索非结构化数据的利器 --- 向量数据库

大模型训练推理过程更为复杂,他们需要处理如文本图像,音视频等大量非结构化数据,并转化为向量数据进行学习,这些数据的规模动辄过亿,向量维度可能高达数千,在选择数据库时,传统数据库只能进行行列检索一一对应, 再输出精准的答案,但向量数据库,则是专门为非结构化数据检索而设计,它将项量数据组成一个立体高维空间,在空间中进行模糊检索,能够快速输出权重最高的答案。

AI的海马体--腾讯云向量数据库

image.png 业界的AI大模型采取预训练的模式,使用收集好的数据进行训练, 知识库难以做到实时更新,而接入向量数据库后,就像给模型插了个高性能外接硬盘,支持学习互联网等最新信息,比重新训练模型微调等方式更加便宜高效。 在线推理时,大模型其实是没有记忆功能的,只能通过重新输入之前的问答,实现短期记忆,而且输入的内容也是有长度限制的。 腾讯云向量数据库(Tencent Cloud VectorDB)作为一种专门存储和检索向量数据的服务提供给用户,可以充当AI的海马体,让人工智能拥有记忆历史,问答能够当成新的训练语料,进入向量数据库永久储存,甚至当用户提出了重复相似的提问,向量数据库会直接给出缓存答案,这就让AI大模型,越用越聪明,越用越迅捷。

一、腾讯云向量数据库介绍

重磅组合,行业领先

LLM+向量数据库,打造专属RAG应用

image.png

智能化能力

腾讯云向量数据库可以和大语言模型 LLM 配合使用。企业的私域数据在经过文本分割、向量化后,可以存储在腾讯云向量数据库中,构建起企业专属的外部知识库,从而在后续的检索任务中,为大模型提供提示信息,辅助大模型生成更加准确的答案。

image.png

产品亮点

高性能 持百万级 OPS 及毫秒级查询延迟
低成本 全流程平台托管,无需进行任何安装、部署、运维操作
大规模 单索引支持 10 亿级向量数据规模
简单易用 用户通过 API即可快速操作数据库,开发效率高
高可用 提供多副本高可用特性,提高容灾能力
稳定可靠 源自腾讯集团自研的向量检索引擎,近40个业务线上稳定运行

二、AI技术在智能客服中的作用

AI技术在智能客服平台中的关键作用

智能客服是一种基于AI技术的解决方案,通过向量数据库存储企业知识(如商品信息、游戏信息等),并利用LLM进行自然语言处理,从而准确、高效地回答客户问题,提高客户满意度、降低企业客服成本

融合AI技术与向量数据库的优势与挑战

挑战 优势
推理问题生成答案 通过向量数据库为LLM提供外部知识库,提高大模型回答的准确性
客服引导式话术 LLM理解引导式话术,在用户问题不完整的情况下,通过与用户的互动,逐步引导用户提问,服务更加友好
多轮对话 LLM通过对多轮的深入语义分析和精准理解,实现了自然、流畅的对话,增强了与用户的亲近感

三、智能客服平台构建

物料准备

购买腾讯云向量数据库

  1. 访问腾讯云向量数据库, 点击立即体验

image.png

  1. 新建向量数据库实例, 配置完成后点击立即申请

image.png 提交完成后等待创建即可 image.png

  1. 创建完成后记得开启外网访问地址, 并配置白名单, 我这里配置的是** 0.0.0.0/0**

image.png

原始数据获取

**Git地址: **https://github.com/SophonPlus/ChineseNlpCorpus image.png 获取其中一个类目即可哦!!

项目开发

创建数据库

相关依赖引入

import tcvectordb
from tcvectordb.model.enum import FieldType, IndexType, MetricType, EmbeddingModel
from tcvectordb.model.index import Index, VectorIndex, FilterIndex, HNSWParams
from tcvectordb.model.collection import Embedding, UpdateQuery
from tcvectordb.model.enum import FieldType, IndexType, MetricType, ReadConsistency

创建数据库

client = tcvectordb.VectorDBClient(url='http://lb-esqjs4rv-35ijkpnybtm1fsuc******', username='root', key='gD0Ip*******', read_consistency=ReadConsistency.EVENTUAL_CONSISTENCY, timeout=30)
db = client.create_database(database_name='db-test')

print(db.database_name)

**注意: **

  1. VectorDBClient 中的 urlkey 填写成自己申请的向量数据库的哦 (key 就是 秘钥)

image.png

  1. read_consistency :设置读一致性 , 是非必填参数 , 默认取值EVENTUAL_CONSISTENCY , 可取值如下:
    1. ReadConsistency.STRONG_CONSISTENCY:强一致性。
    2. ReadConsistency.EVENTUAL_CONSISTENCY:最终一致性。

创建 Collection

# 第一步,设计索引
index = Index(
            FilterIndex(name='id', field_type=FieldType.String, index_type=IndexType.PRIMARY_KEY),
            VectorIndex(name='vector', dimension=768, index_type=IndexType.HNSW,
              metric_type=MetricType.COSINE, params=HNSWParams(m=16, efconstruction=200)),

)

ebd = Embedding(vector_field='vector', field='text', model=EmbeddingModel.BGE_BASE_ZH)

# 第二步:创建 Collection
coll = db.create_collection(
            name='intelligent',
            shard=1,
            replicas=0,
            description='this is a collection of test embedding',
            embedding=ebd,
            index=index
        )
print(vars(coll))

**注意: **

  1. 向量数据库的Collection 是设计的索引而不是 设计表格的结构
  2. **必须的索引 : **主键 id、向量字段 vector 这两个字段目前是固定且必须的
  3. 除了id,vector这两个字段外,如果有其他字段是可以不用定义的, 直接通过 Embedding 添加即可
  4. create_collection 参数可以直接参考 腾讯云向量数据库 , 讲解的很清晰
  5. Embedding 的功能是腾讯云向量数据库(Tencent Cloud VectorDB)提供将非结构化数据转换为向量数据的能力。 这一点我真的是爱了 。
  6. 由于 BGE_BASE_ZH默认是 768 因此 在设置VectorIndexdimension 时 值为 768 , 否则会报错哦!

运行完上述代码之后 , 你的向量数据库 的库名以及集合都已经创建完了哦!

image.png

Embedding

关于 Embedding 我必须拿出来单独说一下, 腾讯云的工程师,简直就是太贴心了

image.png 要知道一个Embedding 将原始文本转换成向量进行数据插入, 这一点给开发者提供了多少的便利啊!(懂得都懂, 我是被折磨坏了!!)

连接数据库写入原始数据

引入依赖

import tcvectordb
import pandas as pd
from tcvectordb.model.document import Document, Filter, SearchParams
from tcvectordb.model.enum import FieldType, IndexType, MetricType, ReadConsistency

连接向量数据库

client = tcvectordb.VectorDBClient(url='http://lb-esqjs4rv-3**********', username='root', key='gD0Ips0RA***********9CBBE', read_consistency=ReadConsistency.EVENTUAL_CONSISTENCY, timeout=30)
# 指定写入原始文本的数据库与集合
db = client.database('db-test')
coll = db.collection('intelligent')

解析csv 数据并写入原始文本 (embedding)


documents = []
count = 1
for index, row in data.iterrows():
  st_info = '{}:{}'.format(row["title"], row["reply"])
  count += 1
  print(f'{st_info} /n 11')
  res = coll.upsert(
    documents=[
      Document(
        id=str(count),
        text=st_info,
        title=row['title'],
        reply=row['reply'],
      )
    ],
    build_index=True
  )

csv 部分数据如下

image.png

注意:

  1. 除了 id、text 字段必须写入,可以写入其他任意字段
  2. upsert 会执行覆盖写,若文档id已存在,则新数据会直接覆盖原有数据(删除原有数据,再插入新数据)
  3. 参数 build_index 为 True,指写入数据同时重新创建索引。

相似度查询

image.png

测试结果没有问题

相似度查询本地化

代码如下

import tcvectordb
from tcvectordb.model.enum import FieldType, IndexType, MetricType, EmbeddingModel, ReadConsistency
from tcvectordb.model.index import Index, VectorIndex, FilterIndex, HNSWParams
from tcvectordb.model.document import Document, Filter, SearchParams




client = tcvectordb.VectorDBClient(url='http://lb-esqjs4rv-*********', username='root', key='gD0Ips0RA********BBE', read_consistency=ReadConsistency.EVENTUAL_CONSISTENCY, timeout=30)
# 指定写入原始文本的数据库与集合
db = client.database('db-test')
coll = db.collection('intelligent')

searchword = input('请输入查询问题:')
doc_lists = coll.searchByText(
                 embeddingItems=[searchword],
                 params=SearchParams(ef=200),
                 limit=3,
                 retrieve_vector=False,
             )
# printf
for i, docs in enumerate(doc_lists.get("documents")):
                print(i)
                for doc in docs:
                        print(doc)

测试结果:

image.png

这里我是直接选择csv 中的一个问题进行提问的 , 可以看出返回三条中第一条匹配度是 0.9 , 完全没有问题, 而这个回答也是csv 中对应的回答

**注意: **

  1. searchByText 提供按照 embeddingItems 输入的文本批量进行相似性查询的能力
  2. limit 用于限制每个单元搜索条件的条数,如 vector 传入三组向量,limit 为 3,则 limit 限制的是每组向量返回 top 3 的相似度向量
  3. params 指定索引类型对应的查询参数,HNSW 类型需要设置 ef,指定查询的遍历范围;IVF 系列需要设置 nprobe,指定查询的单位数量
  4. retrieve_vector 指定是否输出向量字段

五、常见问题

  1. embedding 在写入数据时 text字段是有长度限制的, 导致在写入数据时会报错 ,这一点需要注意一下
  2. 官网上部分参数讲解的并不是很清晰, 需要自己去摸索一下

六、总结

整体体验下来感觉腾讯云向量数据库真是个宝藏啊, 写入的速度也是杠杠的, 有项体验的宝贝抓紧体验一下吧

  1. 对于 embedding的设定节省了我很多的时间 , 再也不用担心我的原始数据如何转换向量啦
  2. 官方文档也比较多, 完全不用担心自己会被卡到哦!
【版权声明】本文内容来自摩杜云社区用户原创、第三方投稿、转载,内容版权归原作者所有。本网站的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@moduyun.com

  1. 分享:
最后一次编辑于 2023年11月25日 0

暂无评论

推荐阅读
LyJBRSvfEdxZ