爬取百度百科中文页面,抽取三元组信息,构建中文知识图谱
.gitignore | ||
html_downloader.py | ||
html_parser.py | ||
README.md | ||
spider_main.py | ||
url_manager.py |
百度百科网络爬虫
从首页开始,逐步的爬取其他网页。使用了4个线程加快爬去速度
环境
- python 3.6
- requests:网络请求
- re:url匹配
- bs4:网页解析
- pickle:进度保存
执行:
python spider_main.py
网页保存路径:
webpages
运行log:
craw 68357 : http://baike.baidu.com/item/%E8%BF%87%E9%80%9F%E7%BB%AF%E9%97%BB
Save to disk filename:webpages/非常主播
craw 68358 : http://baike.baidu.com/item/%E5%B8%82%E5%9C%BA%E8%A7%84%E6%A8%A1
Save to disk filename:webpages/市场规模
craw 68359 : https://baike.baidu.com/item/%E6%B8%85%E6%99%8F%E5%9B%AD
Save to disk filename:webpages/清晏园
craw 68360 : http://baike.baidu.com/item/%E5%AE%9D%E8%8E%B1%E5%9D%9E
Save to disk filename:webpages/宝莱坞
craw 68361 : https://baike.baidu.com/item/%E5%BA%93%E6%96%AF%E7%A7%91%E5%9F%8E
Save to disk filename:webpages/库斯科城