图技术在 LLM 下的应用:知识图谱驱动的大语言模型 Llama Index

LLM 如火如荼地发展了大半年,各类大模型和相关框架也逐步成型,可被大家应用到业务实际中 。在这个过程中,我们可能会遇到一类问题是:现有的哪些数据,如何更好地与 LLM 对接上 。像是大家都在用的知识图谱,现在的图谱该如何借助大模型,发挥更大的价值呢?
在本文,我便会和大家分享下如何利用知识图谱构建更好的 In-大语言模型应用 。
此文最初以英文撰写的,而后我麻烦帮我翻译成了英文 。下面是翻译的 :
“In this , you are aTechto helpmy blog infrominto , the blog style is clear, fun yet . I will pasteinto you and you will send back theand.”
LLM 应用的范式
作为认知智能的一大突破,LLM 已经改变了许多行业,以一种我们没有预料到的方式进行自动化、加速和启用 。我们每天都会看到新的 LLN 应用被创建出来,我们仍然在探索如何利用这种魔力的新方法和用例 。
将 LLM 引入流程的最典型模式之一,是要求 LLM 根据专有的/特定领域的知识理解事物 。目前,我们可以向 LLM 添加两种范式以获取这些知识:微调——fine-tune 和 上下文学习—— in-。
微调是指对 LLM 模型进行附加训练,以增加额外的知识;而上下文学习是在查询提示中添加一些额外的知识 。
据观察,目前由于上下文学习比微调更简单,所以上下文学习比微调更受欢迎,在这篇论文中讲述了这一现象: 。
下面,我来分享在上下文学习方法方面所做的工作 。
Llama Index:数据与 LLM 之间的接口 上下文学习
上下文学习的基本思想是使用现有的 LLM(未更新)来处理特定知识数据集的特殊任务 。
例如,要构建一个可以回答关于某个人的任何问题,甚至扮演一个人的数字化化身的应用程序,我们可以将上下文学习应用于一本自传书籍和 LLM 。在实践中,应用程序将使用用户的问题和从书中"搜索"到的一些信息构建提示,然后查询 LLM 来获取答案 。
┌───────┐┌─────────────────┐┌─────────┐│││ Docs/Knowledge│││││└─────────────────┘│││ User│─────────────────────────────────────?LLM│││││││││└───────┘└─────────┘
在这种搜索方法中,实现从文档/知识(上述示例中的那本书)中获取与特定任务相关信息的最有效方式之一是利用嵌入() 。
嵌入()
嵌入通常指的是将现实世界的事物映射到多维空间中的向量的方法 。例如,我们可以将图像映射到一个(64 x 64)维度的空间中,如果映射足够好,两个图像之间的距离可以反映它们的相似性 。

图技术在 LLM 下的应用:知识图谱驱动的大语言模型 Llama Index

文章插图
嵌入的另一个例子是算法,它将每个单词都映射到一个向量中 。例如,如果嵌入足够好,我们可以对它们进行加法和减法操作,可能会得到以下结果:
vec(apple) + vec(pie) ≈ vec("apple apie"),或者向量测量值 vec(apple) + vec(pie) - vec("apple apie") 趋近于 0:
|vec(apple) + vec(pie) - vec("apple apie")| ≈ 0
类似地,“pear” 应该比 “” 更接近 “apple”:|vec(apple) - vec(pear)| < |vec(apple) - vec()|
有了这个基础,理论上我们可以搜索与给定问题更相关的书籍片段 。基本过程如下:
┌────┬────┬────┬────┐│ 1│ 2│ 3│ 4│├────┴────┴────┴────┤│Docs/Knowledge│┌───────┐│...│┌─────────┐││├────┬────┬────┬────┤│││││ 95 │ 96 │││││││└────┴────┴────┴────┘│││ User│─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─?LLM│││││││││└───────┘┌ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ┐└─────────┘│┌──────────────────────────┐▲└────────┼?│Tell me ....., please│├───────┘└──────────────────────────┘│ ┌────┐ ┌────┐││ 3│ │ 96 ││ └────┘ └────┘│─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─