技术领域
[0001] 本发明涉及知识图谱技术领域,具体地说是一种知识图谱模型构建方法。
相关背景技术
[0002] 知识图谱是一种结构化的知识表示方式,通过描述实体之间的关系来组织和表达知识,实体和关系以图的形式呈现,在语义层面上具有一定的结构。
[0003] 中国专利公告号为:CN116662577A,基于知识图谱的大型语言模型训练方法及装置,所述方法包括构建金融知识图谱,导出事件关联的事件,得到事件集合,将所述事件集合转化为事件向量,确定推理目标事件及相关的实体、事件和关系,构建逻辑联通子图,对逻辑联通子图进行简化处理,得到简化逻辑子图,对简化逻辑子图中的所有事件进行排序,形成事件链条,得到逻辑链;根据所述推理目标事件、逻辑链对样本数据进行处理,得到训练样本,对预训练的大型语言模型进行微调训练,得到金融事件预测模型;上述发明通过知识图谱,生成有逻辑关系的训练样本,训练大型语言模型,使其具备金融垂直方向的思维推理能力,除此之外,还能大大节省人工整理训练样本成本;但上述发明仍然需要进行大量人工标注,工作效率和准确率较低。
[0004] 综上,因此本发明提供了一种知识图谱模型构建方法,以解决上述问题。
具体实施方式
[0030] 下面结合附图和实施例对本发明的实施方式作进一步详细描述。以下实施例用于说明本发明,但不能用来限制本发明的范围。
[0031] 如图1‑2所示,本发明提供一种知识图谱模型构建方法,包括以下步骤:
[0032] S1,收集知识点数据,包括事实、定义、原则、规则、实例,以及与其他知识点的关系;
[0033] S2,基于收集到的知识点数据,使用PyTorch搭建Transformer模型,Transformer模型基于自注意力机制进行序列建模;
[0034] S3,基于Transformer模型,使用WordPiece分词算法,将知识点切分成单词;
[0035] S4,基于Transformer模型,训练BERT模型,BERT模型基于Transformer模型深度双向编码,对单词进行建模,并产生一个固定长度的表示向量;
[0036] S5,根据知识点与其他知识点的关系,编写知识关系指令,使用知识关系指令对Transformer模型进行训练,并定义损失函数,衡量模型输出的误差,最后训练生成知识图谱模型,进而根据知识图谱模型,生成包含节点和向量的空间,即知识图谱表征空间;
[0037] S6,向知识图谱模型中输入新的知识点,新知识点标记为Ax,使用k‑近邻算法,查找知识图谱模型中,与新知识点Ax相关的知识点位置,根据查找结果,确定新知识点Ax在知识图谱表征空间中的位置;
[0038] S7,根据新知识点Ax在知识图谱中的位置,计算新知识点Ax与其他知识点之间的欧几里德距离,确定新知识点Ax与其他知识点的位置关系,并将位置关系作为新知识点Ax与其他知识点的关系指令,将关系指令加入到知识图谱模型的训练集中,更新模型参数。
[0039] 作为本发明的一种实施方式,步骤S1中,所述知识点与其他知识点的关系使用文字进行描述,包括:使用、包含、组成。
[0040] 作为本发明的一种实施方式,步骤S3中,所述将知识点切分成单词,分词过程中筛选并保留知识点的语义信息。
[0041] 作为本发明的一种实施方式,步骤S5中,所述损失函数是交叉熵损失函数,交叉熵损失函数计算公式如下:
[0042] L=‑∑i=ln[yi*ln(pi)+(1‑yi)*ln(1‑pi)]
[0043] 式中,yi表示真实的数据,pi表示模型预测的概率,n表示训练样本的数量,L表示损失值;使用交叉熵损失函数的优势在于,在对知识图谱模型的参数进行更新时,能够更快的收敛权重参数,减少过拟合的可能性,提高模型的准确率。
[0044] 作为本发明的一种实施方式,步骤S5中,所述知识图谱表征空间使用图数据库构建图结构,其中知识点作为节点,知识点之间的关系作为边。
[0045] 作为本发明的一种实施方式,步骤S6中,所述k‑近邻算法首先计算新知识点Ax与其他知识点之间的相似度,根据计算得到的相似度,选取与新知识点相似的k个知识点,再对k个知识点与新知识点Ax的距离进行计算,选取距离最短的知识点,作为新知识点Ax的位置。
[0046] 作为本发明的一种实施方式,步骤S7中,所述新知识点Ax的位置和关系指令,在加入知识图谱模型的训练集之前,进行人工修正。
[0047] 作为本发明的一种实施方式,步骤S7中,所述关系指令使用反向传播算法,将关系指令通过链式法则,传播回知识图谱模型的训练集。
[0048] 实施例:本实施例以某个遥感知识图谱模型为例;首先收集包括遥感影像、地理信息数据、地物分类等相关知识点数据,并整理知识点之间的关系;例如将遥感影像、地理信息数据等转换为向量表示,作为知识点的输入。
[0049] 基于收集到的知识点数据,使用PyTorch搭建Transformer模型,Transformer模型是一种基于自注意力机制进行序列建模的模型,由编码器和解码器组成。
[0050] 基于Transformer模型,对收集到的知识点进行分词处理,WordPiece分词算法能够将知识点切分成更细粒度的单词,提供更多的语义信息。
[0051] 基于Transformer模型,使用BERT模型对分词后的知识点进行深度双向编码,生成固定长度的表示向量;BERT模型能够建模单词之间的关系。
[0052] 随后根据地学领域中的知识关系(如不同地物在遥感影像中的空间位置关系),编写知识关系指令,并使用指令对Transformer模型进行训练;同时定义损失函数来衡量模型输出的误差;通过训练生成知识图谱模型,并得到知识图谱表征空间,即包含节点和向量的空间。
[0053] 将新的遥感知识点作为输入,标记为Ax;利用k‑近邻算法,在知识图谱模型中查找与Ax相关的知识点位置,通过查找结果确定Ax在知识图谱表征空间中的位置。
[0054] 基于Ax在知识图谱中的位置,计算Ax与其他知识点之间的欧几里德距离,确定Ax与其他知识点的位置关系。将位置关系作为新知识点Ax与其他知识点的关系指令,并加入到知识图谱模型的训练集中,更新模型参数。
[0055] 通过以上步骤,可以构建一个遥感知识图谱模型,并根据新的知识点对知识图谱进行更新和扩展,从而实现知识的存储、检索和推理,帮助用户更好地理解和应用遥感领域的知识。
[0056] 本发明的实施方式是为了示例和描述起见而给出的,尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。