python构建知识图谱_Python从零开始构建知识图谱

“他山之石,可以攻玉”,站在巨人的肩膀才能看得更高,走得更远。在科研的道路上,更需借助东风才能更快前行。为此,我们特别搜集整理了一些实用的代码链接,数据集,软件,编程技巧等,开辟“他山之石”专栏,助你乘风破浪,一路奋勇向前,敬请关注。

作者:知乎—wxj630

地址:https://www.zhihu.com/people/wxj630

  • 知识图谱是数据科学中最迷人的概念之一
  • 学习如何构建知识图谱来从维基百科页面挖掘信息
  • 您将在Python中动手使用流行的spaCy库构建知识图谱

01

知识图谱

1、什么是知识图谱

We can define a graph as a set of nodes and edges. 知识图谱就是一组节点和边构成的三元组。 这里的节点A和节点B是两个不同的实体。这些节点由代表两个节点之间关系的边连接,也被称为一个三元组。

b849378e7130c0a3159ccdf99b7a9bb4.png

例如头实体“普京”和尾实体“俄罗斯”的关系是“是总统”:

e9c00fbac77015e0aaae9dff3aa1d3fa.png

还可以增加“普京在克格勃工作过”的三元组:

cca6ab0cba7a261a25e1ac720b3f6576.png

还可以增加“俄罗斯是APEC组织成员”的三元组:

82cc55d253772a194c286525602021a1.png

识别实体和它们之间的关系对我们来说不是一项困难的任务,有监督的命名实体识别(NER)和关系抽取都有比较成熟的模型。但是标注一个大规模的实体和关系的数据集是需要巨大投入的。 因此作为初学者,我们使用句子分割、依赖解析、词性标注和实体识别等NLP技术来实现实体识别、关系抽取、知识图谱构建。

2、句子分割Sentence Segmentation

构建知识图的第一步是将文本文档或文章分解成句子。然后,我们将选出只有一个主语和一个宾语的句子。让我们看看下面的示例文本: “Indian tennis player Sumit Nagal moved up six places from 135 to a career-best 129 in the latest men’s singles ranking. The 22-year-old recently won the ATP Challenger tournament. He made his Grand Slam debut against Federer in the 2019 US Open. Nagal won the first set.”
在最新的男子单打排名中,印度网球选手纳加尔(Sumit Nagal)上升了6位,从135名上升到职业生涯最好的129名。这位22岁的选手最近赢得了ATP挑战赛的冠军。在2019年的美国网球公开赛上,他迎来了自己的大满贯处子秀,对手是费德勒。纳加尔赢了第一盘。 将文本分割成句子:
  1. Indian tennis player Sumit Nagal moved up six places from 135 to a career-best 129 in the latest men’s singles ranking
  2. The 22-year-old recently won the ATP Challenger tournament
  3. He made his Grand Slam debut against Federer in the 2019 US Open
  4. Nagal won the first set
在这四个句子中,我们将选出第二个和第四个句子,因为它们分别包含一个主语和一个宾语。在第二句话中,22-year-old是主语,宾语是ATP挑战者锦标赛。在第四句中,主语是Nagal,first set是宾语:

68ca592438ffd5110ea519907291fdc3.png

但是我们没办法每个句子都人工抽取,因此需要使用实体识别和关系抽取技术。

3、实体识别Entities Recognition

首先我们需要抽取实体,也就是知识图谱上的“节点”: 从一个句子中提取一个单词并不是一项艰巨的任务。借助词性标签,我们可以很容易地做到这一点。名词和专有名词就是我们的实体。但是,当一个实体跨越多个单词时,仅使用POS标记是不够的。我们需要解析句子的依赖树。在下一篇文章中,您可以阅读更多有关依赖解析dependency parsing的内容。 我们使用spaCy库来解析依赖:
import spacynlp = spacy.load('en_core_web_sm')doc = nlp("The 22-year-old recently won ATP Challenger tournament.")for tok in doc:  print(tok.text, "...", tok.dep_)'''输出:The … det22-year … amod– … punctold … nsubjrecently … advmodwon … ROOTATP … compoundChallenger … compoundtournament … dobj. … punct'''
根据依赖解析器,这句话中的主语(nsubj)是old。这不是我们想要的实体。我们想要提取“22-year” 的。“22-year” 的依赖标签是amod,这意味着它是old的修饰语。因此,我们应该定义一个规则来提取这些实体。 规则可以是这样的:提取主题/对象及其修饰符,还提取它们之间的标点符号。 然后看看句子中的宾语(dobj)。这只是锦标赛,而不是ATP挑战者锦标赛。这里没有修饰语,只有复合词。复合词是那些共同构成一个具有不同含义的新术语的词。因此,我们可以将上述规则更新为⁠: 提取主题/对象及其修饰词,复合词,并提取它们之间的标点符号。 这样我们就提取了实体22-year-oldATP Challenger tournament

4、关系抽取Extract Relations

然后我们需要提取关系,也就是知识图谱上的“边”:

b814de0f9363358ea90077046387c56d.png

你能猜出这两个句子中主语和宾语的关系吗?这两句话有相同的关系won。让我们看看如何提取这些关系。我们将再次使用依赖解析
doc = nlp("Nagal won the first set.")for tok in doc:  print(tok.text, "...", tok.dep_)'''输出:Nagal … nsubjwon … ROOTthe … detfirst … amodset … dobj. … punct'''
为了提取这种关系,我们必须找到句子的根(也是句子的动词)。因此,从这个句子中提取的关系就是“won”。提取出的实体-关系如下:

a55cb814c10f6c7a3072121069213d22.png

02

知识图谱python实践 我们将使用与维基百科文章相关的一组电影和电影中的文本从头开始构建一个知识图。我已经从500多篇维基百科文章中提取了大约4300个句子。每个句子都包含两个实体一个主语和一个宾语。你可以从这里下载这些句子。

1、导入相关库Import Libraries

import reimport pandas as pdimport bs4import requestsimport spacyfrom spacy import displacynlp = spacy.load('en_core_web_sm')from spacy.matcher import Matcher from spacy.tokens import Span import networkx as nximport matplotlib.pyplot as pltfrom tqdm import tqdmpd.set_option('display.max_colwidth', 200)%matplotlib inline

2、读取文本数据Read Data

# import wikipedia sentencescandidate_sentences = pd.read_csv("wiki_sentences_v2.csv")candidate_sentences.shape'''(4318, 1)'''
采样看下数据长啥样:
candidate_sentences['sentence'].sample(5)

013e10bee82224b969915b894ea12e2c.png

试下实体:
doc = nlp("the drawdown process is governed by astm standard d823")for tok in doc:  print(tok.text, "...", tok.dep_)

fc26e234d43936934713958336204555.png

只有一个主体(process)和一个客体(standard)。你可以用类似的方式检查其他句子。

3、抽取"主语-宾语"对Entity Pairs Extraction

这些节点将是出现在维基百科句子中的实体。边是这些实体之间相互连接的关系。我们将以无监督的方式提取这些元素,也就是说,我们将使用句子的语法。主要思想是浏览一个句子,在遇到主语和宾语时提取出它们。但是,一个实体在跨多个单词时存在一些挑战,例如red wine。依赖关系解析器只将单个单词标记为主语或宾语。所以,我在下面创建了一个额外的函数:
def get_entities(sent): ## chunk 1 # 我在这个块中定义了一些空变量。prv tok dep和prv tok text将分别保留句子中前一个单词和前一个单词本身的依赖标签。前缀和修饰符将保存与主题或对象相关的文本。  ent1 = ""  ent2 = ""  prv_tok_dep = "" # dependency tag of previous token in the sentence  prv_tok_text = "" # previous token in the sentence  prefix = ""  modifier = "" ############################################################# for tok in nlp(sent): ## chunk 2 # 接下来,我们将遍历句子中的记号。我们将首先检查标记是否为标点符号。如果是,那么我们将忽略它并转移到下一个令牌。如果标记是复合单词的一部分(dependency tag = compound),我们将把它保存在prefix变量中。复合词是由多个单词组成一个具有新含义的单词(例如“Football Stadium”, “animal lover”)。 # 当我们在句子中遇到主语或宾语时,我们会加上这个前缀。我们将对修饰语做同样的事情,例如“nice shirt”, “big house” # if token is a punctuation mark then move on to the next token if tok.dep_ != "punct": # check: token is a compound word or not if tok.dep_ == "compound":        prefix = tok.text # if the previous word was also a 'compound' then add the current word to it if prv_tok_dep == "compound":          prefix = prv_tok_text + " "+ tok.text # check: token is a modifier or not if tok.dep_.endswith("mod") == True:        modifier = tok.text # if the previous word was also a 'compound' then add the current word to it if prv_tok_dep == "compound":          modifier = prv_tok_text + " "+ tok.text ## chunk 3 # 在这里,如果令牌是主语,那么它将作为ent1变量中的第一个实体被捕获。变量如前缀,修饰符,prv tok dep,和prv tok文本将被重置。 if tok.dep_.find("subj") == True:        ent1 = modifier +" "+ prefix + " "+ tok.text        prefix = ""        modifier = ""        prv_tok_dep = ""        prv_tok_text = ""  ## chunk 4 # 在这里,如果令牌是宾语,那么它将被捕获为ent2变量中的第二个实体。变量,如前缀,修饰符,prv tok dep,和prv tok文本将再次被重置。 if tok.dep_.find("obj") == True:        ent2 = modifier +" "+ prefix +" "+ tok.text ## chunk 5   # 一旦我们捕获了句子中的主语和宾语,我们将更新前面的标记和它的依赖标记。 # update variables      prv_tok_dep = tok.dep_      prv_tok_text = tok.text ############################################################# return [ent1.strip(), ent2.strip()]
试下这个函数的效果:
get_entities("the film had 200 patents")'''Output: [‘film’, ‘200 patents’]'''
达到了预期效果,我们对数据集中的句子使用这个函数,提取这些句子中的实体对:
entity_pairs = []for i in tqdm(candidate_sentences["sentence"]):  entity_pairs.append(get_entities(i))entity_pairs[10:20]

bcce589054105ca85a026ad5d9b7681e.png

如你所见,在这些实体对中有一些代词,如we, it, she等。我们希望用专有名词或名词来代替。也许我们可以进一步改进get entities()函数来过滤代词。但是指代消解是比较高级的技术,现在,让我们让它保持原样,继续到关系提取部分。

4、关系抽取Relation / Predicate Extraction

我们的假设是,谓语实际上是句子中的主要动词。例如,在句子中,1929年上映的60部好莱坞音乐剧中,动词是在,这就是我们要用的,作为这个句子中产生的三元组的谓词。下面的函数能够从句子中捕获这样的谓词。在这里,我使用了spaCy的基于规则的匹配
def get_relation(sent):  doc = nlp(sent) # Matcher class object   matcher = Matcher(nlp.vocab) #define the pattern   pattern = [{'DEP':'ROOT'},             {'DEP':'prep','OP':"?"},            {'DEP':'agent','OP':"?"},              {'POS':'ADJ','OP':"?"}]   matcher.add("matching_1", None, pattern)   matches = matcher(doc)  k = len(matches) - 1  span = doc[matches[k][1]:matches[k][2]]  return(span.text)
函数中定义的模式试图找到句子中的词根或主要动词。一旦确定了词根,该模式就会检查它后面是介词(prep)还是代理词。如果是,则将其添加到根词中。试试一下这个函数:
get_relation("John completed the task")'''Output: completed'''
用在我们的数据集上:
relations = [get_relation(i) for i in tqdm(candidate_sentences['sentence'])]pd.Series(relations).value_counts()[:50]

c494e2bba7eb949ea35687430115a226.png

事实证明,“ A是B”和“ A是B”等关系是最常见的关系。但是,有很多关系与整个电影主题更为相关。比如“由...组成”,“发行于”,“制作”,“由...撰写”等等。

5、构建知识图谱Build a Knowledge Graph

最后,我们将从提取的实体(主语-宾语对)和谓词(实体之间的关系)创建知识图。 让我们创建一个实体和谓词的dataframe:
# extract subjectsource = [i[0] for i in entity_pairs] # extract objecttarget = [i[1] for i in entity_pairs] kg_df = pd.DataFrame({'source':source, 'target':target, 'edge':relations})
接下来,我们将使用networkx库从这个dataframe创建一个网络。节点将表示实体,节点之间的边或连接将表示节点之间的关系。 这将是有向图。换句话说,任何连接的节点对之间的关系不是双向的,它只是从一个节点到另一个节点。例如,“约翰吃意大利面”:
# create a directed-graph from a dataframeG=nx.from_pandas_edgelist(kg_df, "source", "target",     edge_attr=True, create_using=nx.MultiDiGraph())
画图展示下:
plt.figure(figsize=(12,12))pos = nx.spring_layout(G)nx.draw(G, with_labels=True, node_color='skyblue', edge_cmap=plt.cm.Blues, pos = pos)plt.show()
8beaf541c51bfecd2b41f4bca8af07c4.png
实体和关系太多了,我们抽“composed by”关系出来看下:
G=nx.from_pandas_edgelist(kg_df[kg_df['edge']=="composed by"], "source", "target",                           edge_attr=True, create_using=nx.MultiDiGraph())plt.figure(figsize=(12,12))pos = nx.spring_layout(G, k = 0.5) # k regulates the distance between nodesnx.draw(G, with_labels=True, node_color='skyblue', node_size=1500, edge_cmap=plt.cm.Blues, pos = pos)plt.show()
3f34b75a4967aab333d32f8a2b22fc9b.png
这样就清晰多了。这里的箭头指向作曲家。例如,A.R. Rahman,一位著名的作曲家,在上面的图表中,他拥有像原声配乐、电影配乐和音乐这样的实体。让我们再看几个关系。因为写作在任何一部电影中都是一个重要的角色,所以我想把“written by”关系来可视化:
G=nx.from_pandas_edgelist(kg_df[kg_df['edge']=="written by"], "source", "target",                           edge_attr=True, create_using=nx.MultiDiGraph())plt.figure(figsize=(12,12))pos = nx.spring_layout(G, k = 0.5)nx.draw(G, with_labels=True, node_color='skyblue', node_size=1500, edge_cmap=plt.cm.Blues, pos = pos)plt.show()
2ee987e616998776aeec50f842143548.png
这个知识图谱给了我们一些非凡的信息。像Javed Akhtar, Krishna Chaitanya,和Jaideep Sahni这样的人都是著名的作词家,这张图表完美地抓住了这种关系。 “released in”关系:在此图中,我可以看到很多有趣的信息。例如,看一下这种关系-“ 几部动作恐怖电影发行于1980年代”和“pk发行在4844块荧幕上”。这些都是事实,它向我们展示了我们可以从文本中挖掘出这些事实。
c47232bbc54f609de96ea3163f7fe89a.png

03

总结 在本文中,我们学习了如何以三元组的形式从给定文本中提取信息,并从中构建知识图谱。但是,我们限制自己只使用两个实体的句子。即使在这种情况下,我们也能够构建非常有用的知识图谱。想象一下知识图谱在现有的海量非结构化文本中提取知识的潜力!!! 参考连接

[1] Knowledge Graph – A Powerful Data Science Technique to Mine Information from Text (with Python code):

https://www.analyticsvidhya.com/blog/2019/10/how-to-build-knowledge-graph-text-using-spacy/

[2] spacy文档:

https://github.com/explosion/spaCy

[3] spacy中文教程:

https://www.jianshu.com/p/e6b3565e159d

9c22ab3db9e074271ffc63cc487d013e.png


版权声明:本文为weixin_39667797原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。