爬取百度百科中文页面,抽取三元组信息,构建中文知识图谱
Go to file
2019-11-21 23:52:33 +08:00
baike 更新图片5 2019-11-21 23:52:33 +08:00
imgs 更新图片5 2019-11-21 23:52:33 +08:00
.gitignore 1.增加日志;2.增加部分图片;3.优化部分逻辑;4.修改README.md 2019-11-21 23:46:16 +08:00
middlewares.py 全新代码 2019-11-21 22:50:19 +08:00
README.md 1.增加日志;2.增加部分图片;3.优化部分逻辑;4.修改README.md 2019-11-21 23:46:16 +08:00
scrapy.cfg 全新代码 2019-11-21 22:50:19 +08:00

开源web知识图谱项目

  • 爬取百度百科中文页面
  • 解析三元组和网页内容
  • 构建中文知识图谱
  • 构建百科bot构建中
update 20191121
  • 迁移代码到爬虫框架scrapy
  • 优化了抽取部分代码
  • 数据持久化迁移到mongodb
  • 修复chatbot失效问题
  • 开放neo4j后台界面可以查看知识图谱成型效果
Tips
  • 如果是项目问题请提issue。
  • 如果涉及到不方便公开的,请发邮件。
  • ChatBot请访问链接
  • 成型的百科知识图谱访问链接用户名neo4j,密码123。

环境

  • python 3.6
  • re:url正则匹配
  • scrapy:网页爬虫和网页解析
  • neo4j:知识图谱图数据库,安装可以参考链接
  • pip install neo4j-driverneo4j python驱动
  • pip install pymongodbmongodb的python支持
  • mongodb数据库安装参考链接

代码执行:

cd WEB_KG/baike
scrapy crawl baike

执行界面(按ctrl+c停止)

知识图谱效果图

mongodb存储的网页内容

mongodb存储的三元组

neo4j后台界面