论文浅尝 | 基于提示的知识图谱基础模型用于通用上下文推理(NeurIPS2024)
本文介绍了一种基于上下文学习的知识图谱基础模型(KG foundation model),以提高知识图谱推理的有效性和可迁移性。具体来说,引入了提示图(prompt graph)和统一分词器(unified tokenizer)作为不同知识图谱之间知识转移的桥梁。本文提出了提示图生成模块、提示编码模块和知识图谱推理模块,以实现上下文学习并在43个不同的知识图谱上进行了归纳性和演绎性设置下的上下文推
笔记整理:王泽元,浙江大学博士生
论文链接:https://arxiv.org/pdf/2410.12288
发表会议:NeurIPS 2024
1. 动机
大量的知识图谱已经被构建来促进各种场景中的知识驱动任务。然而现有的知识图谱推理模型通常为不同的知识图谱开发独立的推理模型,缺乏跨不同知识图谱和推理设置进行知识泛化和迁移的能力,并且往往针对静态的知识图谱,并且在归纳性设置下处理新实体或关系时缺乏泛化能力。尽管最近的研究开始考虑已见与未见实体之间的关系模式,以支持归纳性推理,但这些方法仍然存在局限性,比如依赖于昂贵的事先标记对齐、局限于相似的模式等,从而限制了它们在跨越多个领域知识图谱中的鲁棒通用性。基于以上问题,本文提出了一个基于提示的知识图谱基础模型(KG-ICL),通过上下文学习来提高KG推理的有效性和可转移性。该模型旨在实现跨不同KG的通用推理能力,包括引入了提示图(prompt graph)和统一的分词器作为不同KG之间知识转移的桥梁,并设计了提示图生成模块、提示编码模块以及KG推理模块来达成这一目标。实验结果表明,所提出的模型在多样化的KG上展现了优秀的泛化能力和通用推理能力。
2. 贡献
本文的主要贡献有:
(1)一个上下文知识图谱推理基础模型。它促使预训练模型在多样化的知识图谱上进行关系推理。
(2)一种作为上下文的提示图来支持上下文学习。它包含关于查询关系的一个示例事实及其相关的子图和路径。通过使用了一个统一的分词器,本文将提示图中的实体和关系映射到预定义的标记。
(3)两种消息传递网络用于提示图编码和知识图谱推理。该基础模型还可以在特定的知识图谱上进一步微调,以获得更好的性能。
3. 方法
KG-ICL利用提示图生成 (Prompt Graph Generation) 构建一个能够帮助理解查询关系的上下文环境。针对给定的查询关系q,从知识图谱中随机选取一些与q相关的事实作为示例。对于每个选定的示例事实,从知识图谱中提取出包含该事实及其相邻节点的子图,形成一个提示图。这样构造的提示图不仅包含了直接相关的实体和关系,还包括了它们周围的局部结构信息。
为了处理未见过的实体和关系,本文利用统一分词器将提示图中的实体和关系映射到预定义的标记上。对于每个实体 e,基于它与示例事实中的主体 u 和客体 v 之间的最短路径长度进行标记。具体来说,实体会被标记为 [dist(u,e),dist(v,e)] 的形式,其中 dist(⋅) 表示两个实体间最短路径的长度。这样做的好处是可以根据实体相对于查询上下文的位置来对它们进行编码,而不仅仅是依赖于具体的实体标识。对于每个关系 r,判断它是否与查询关系 q 相同,并据此进行标记。如果 r 等同于 q,则标记为 [1],否则标记为 [0]。这种方式有助于区分查询相关的关系和其他关系,从而增强模型对特定查询的理解能力。统一分词器通过对实体和关系应用一套一致的标记规则,帮助模型构建了一个更加通用且灵活的表示空间,从而支持了更广泛的推理任务。
本文通过消息传递机制来编码提示图,并执行知识图谱上的推理任务。利用多层的消息传递神经网络更新提示图中各节点(实体和关系)的表示。每层消息传递后都会更新一次实体和关系的嵌入向量,直到达到预定层数。基于前面获得的提示表示初始化新的实体和关系表示,然后再次使用消息传递神经网络进一步优化这些表示。最后,通过推理模块计算候选答案的得分,以完成最终的预测任务。
KG-ICL模型的预训练目标是通过最小化一个多类对数损失函数来实现的,该损失函数旨在提高正样本事实的得分同时降低负样本的得分。
预训练目标的数学表达如下:
通过最小化上述损失函数,预训练过程鼓励模型给出更高的分值给正确的三元组,同时给予错误的或随机选择的三元组较低的分值。这有助于模型学会区分正确的关系与不正确的关联,从而增强其在不同知识图谱上的泛化能力和推理能力。本文选择了三个不同的源数据集进行预训练:FB V1(包含180种关系)、NELL V1(仅14种关系)以及CoDEx-small(42种关系)。这些数据集具有不同的规模和特性,有助于提高模型的泛化能力。
4. 实验
在43个不同类型的公开知识图谱上进行了评估,包括归纳、完全归纳及演绎三种设定下的数据集,主要采用了MRR (Mean Reciprocal Rank) 和Hits@10等指标来衡量模型的表现。本文与多种基线模型进行了比较,包括当前最先进的监督学习方法以及ULTRA模型的不同版本。
实验表明,提出的KG-ICL模型不仅在大多数数据集上优于现有的基线方法,而且展现出卓越的泛化能力和通用推理能力。这包括了对未见过实体和关系的有效处理,以及跨不同类型知识图谱的适应性。当使用相同的预训练混合数据集(如WN18RR, FB15k-237, 和 CoDEx-medium)时,KG-ICL的表现优于ULTRA模型。即使是在仅用一个知识图谱进行预训练的情况下,KG-ICL也表现出色,显示出其强大的泛化能力。随着预训练数据集数量的增加,性能持续提升。
通过生成多样化的提示图,并采用针对性的提示工程技术,KG-ICL减少了学习复杂度并促进了更好的泛化。这种设计有助于提高样本多样性,从而使得模型能够更好地捕捉到不同的关系模式。
5. 总结
本文介绍了一种基于上下文学习的知识图谱基础模型(KG foundation model),以提高知识图谱推理的有效性和可迁移性。具体来说,引入了提示图(prompt graph)和统一分词器(unified tokenizer)作为不同知识图谱之间知识转移的桥梁。本文提出了提示图生成模块、提示编码模块和知识图谱推理模块,以实现上下文学习并在43个不同的知识图谱上进行了归纳性和演绎性设置下的上下文推理能力评估。广泛的实验结果验证了模型在多种知识图谱上的通用推理能力。
如何学习AI大模型 ?
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。【保证100%免费】🆓
CSDN粉丝独家福利
这份完整版的 AI 大模型学习资料已经上传CSDN,朋友们如果需要可以扫描下方二维码&点击下方CSDN官方认证链接免费领取 【保证100%免费】
读者福利: 👉👉CSDN大礼包:《最新AI大模型学习资源包》免费分享 👈👈
对于0基础小白入门:
如果你是零基础小白,想快速入门大模型是可以考虑的。
一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。
👉1.大模型入门学习思维导图👈
要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。
对于从来没有接触过AI大模型的同学,我们帮你准备了详细的学习成长路线图&学习规划。可以说是最科学最系统的学习路线,大家跟着这个大的方向学习准没问题。(全套教程文末领取哈)
👉2.AGI大模型配套视频👈
很多朋友都不喜欢晦涩的文字,我也为大家准备了视频教程,每个章节都是当前板块的精华浓缩。
👉3.大模型实际应用报告合集👈
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(全套教程文末领取哈)
👉4.大模型落地应用案例PPT👈
光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。(全套教程文末领取哈)
👉5.大模型经典学习电子书👈
随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。(全套教程文末领取哈)
👉6.大模型面试题&答案👈
截至目前大模型已经超过200个,在大模型纵横的时代,不仅大模型技术越来越卷,就连大模型相关的岗位和面试也开始越来越卷了。为了让大家更容易上车大模型算法赛道,我总结了大模型常考的面试题。(全套教程文末领取哈)
👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习
CSDN粉丝独家福利
这份完整版的 AI 大模型学习资料已经上传CSDN,朋友们如果需要可以扫描下方二维码&点击下方CSDN官方认证链接免费领取 【保证100%免费】
读者福利: 👉👉CSDN大礼包:《最新AI大模型学习资源包》免费分享 👈👈

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐
所有评论(0)