funNLP/README.md

492 lines
22 KiB
Markdown
Raw Normal View History

2018-09-03 14:55:25 +08:00
最近需要从文本中抽取结构化信息用到了很多github上的包遂整理了一下后续会不断更新。
很多包非常有趣,值得收藏,满足大家的收集癖!
2018-10-22 19:22:07 +08:00
如果觉得有用请分享并star谢谢
2018-09-03 14:55:25 +08:00
2019-01-23 15:42:41 +08:00
涉及内容包括:**中英文敏感词、语言检测、中外手机/电话归属地/运营商查询、名字推断性别、手机号抽取、身份证抽取、邮箱抽取、中日文人名库、中文缩写库、拆字词典、词汇情感值、停用词、反动词表、暴恐词表、繁简体转换、英文模拟中文发音、汪峰歌词生成器、职业名称词库、同义词库、反义词库、否定词库、汽车品牌词库、汽车零件词库、连续英文切割、各种中文词向量、公司名字大全、古诗词库、IT词库、财经词库、成语词库、地名词库、历史名人词库、诗词词库、医学词库、饮食词库、法律词库、汽车词库、动物词库、中文聊天语料、中文谣言数据、百度中文问答数据集、句子相似度匹配算法集合、bert资源、文本生成&摘要相关工具、cocoNLP信息抽取工具、国内电话号码正则匹配、清华大学XLORE:中英文跨语言百科知识图谱、清华大学人工智能技术系列报告、自然语言生成、NLP太难了系列、自动对联数据及机器人、用户名黑名单列表、罪名法务名词及分类模型、微信公众号语料、cs224n深度学习自然语言处理课程、中文手写汉字识别、中文自然语言处理 语料/数据集、变量命名神器**。
2018-09-03 14:55:25 +08:00
**1\. textfilter: 中英文敏感词过滤** [observerss/textfilter](https://github.com/observerss/textfilter)
```
>>> f = DFAFilter()
>>> f.add("sexy")
>>> f.filter("hello sexy baby")
hello **** baby
```
敏感词包括政治、脏话等话题词汇。其原理主要是基于词典的查找项目中的keyword文件内容很劲爆。。。
**2\. langid97种语言检测** [https://github.com/saffsd/langid.py](https://github.com/saffsd/langid.py)
> pip install langid
2018-09-03 14:55:25 +08:00
```
>>> import langid
>>> langid.classify("This is a test")
('en', -54.41310358047485)
```
2018-09-03 14:55:25 +08:00
**3\. langdetect另一个语言检测**[https://code.google.com/archive/p/language-detection/](https://code.google.com/archive/p/language-detection/)
> pip install langdetect
2018-09-03 14:55:25 +08:00
```
from langdetect import detect
from langdetect import detect_langs
s1 = "本篇博客主要介绍两款语言探测工具,用于区分文本到底是什么语言,"
s2 = 'We are pleased to introduce today a new technology'
print(detect(s1))
print(detect(s2))
print(detect_langs(s3)) # detect_langs()输出探测出的所有语言类型及其所占的比例
```
输出结果如下: 注语言类型主要参考的是ISO 639-1语言编码标准详见[ISO 639-1百度百科](https://baike.baidu.com/item/ISO%20639-1)
跟上一个语言检测比较,准确率低,效率高。
2018-09-03 14:55:25 +08:00
**4\. phone 中国手机归属地查询:** [ls0f/phone](https://github.com/ls0f/phone)
> 已集成到 python package [cocoNLP](https://github.com/fighting41love/cocoNLP)中,欢迎试用
2018-09-03 14:55:25 +08:00
```
from phone import Phone
p = Phone()
p.find(18100065143)
#return {'phone': '18100065143', 'province': '上海', 'city': '上海', 'zip_code': '200000', 'area_code': '021', 'phone_type': '电信'}
```
支持号段: 13*,15*,18*,14[5,7],17[0,6,7,8]
记录条数: 360569 (updated:2017年4月)
作者提供了数据[phone.dat](https://github.com/lovedboy/phone/raw/master/phone/phone.dat) 方便非python用户Load数据。
**5\. phone国际手机、电话归属地查询**[AfterShip/phone](https://github.com/AfterShip/phone)
> npm install phone
2018-09-03 14:55:25 +08:00
```
import phone from 'phone';
phone('+852 6569-8900'); // return ['+85265698900', 'HKG']
phone('(817) 569-8900'); // return ['+18175698900, 'USA']
```
**6\. ngender 根据名字判断性别:**[observerss/ngender](https://github.com/observerss/ngender) 基于朴素贝叶斯计算的概率
> pip install ngender
2018-09-03 14:55:25 +08:00
```
>>> import ngender
>>> ngender.guess('赵本山')
('male', 0.9836229687547046)
>>> ngender.guess('宋丹丹')
('female', 0.9759486128949907)
```
**7\. 抽取email的正则表达式**
> 已集成到 python package [cocoNLP](https://github.com/fighting41love/cocoNLP)中,欢迎试用
2018-09-03 14:55:25 +08:00
```
email_pattern = '^[*#\u4e00-\u9fa5 a-zA-Z0-9_.-]+@[a-zA-Z0-9-]+(\.[a-zA-Z0-9-]+)*\.[a-zA-Z0-9]{2,6}$'
emails = re.findall(email_pattern, text, flags=0)
```
**8\. 抽取phone_number的正则表达式**
> 已集成到 python package [cocoNLP](https://github.com/fighting41love/cocoNLP)中,欢迎试用
2018-09-03 14:55:25 +08:00
```
cellphone_pattern = '^((13[0-9])|(14[0-9])|(15[0-9])|(17[0-9])|(18[0-9]))\d{8}$'
phoneNumbers = re.findall(cellphone_pattern, text, flags=0)
```
**9\. 抽取身份证号的正则表达式**
```
IDCards_pattern = r'^([1-9]\d{5}[12]\d{3}(0[1-9]|1[012])(0[1-9]|[12][0-9]|3[01])\d{3}[0-9xX])$'
IDs = re.findall(IDCards_pattern, text, flags=0)
```
**10. 人名语料库:** [wainshine/Chinese-Names-Corpus](https://github.com/wainshine/Chinese-Names-Corpus)
> 人名抽取功能 python package [cocoNLP](https://github.com/fighting41love/cocoNLP),欢迎试用
2018-09-03 14:55:25 +08:00
```
中文(现代、古代)名字、日文名字、中文的姓和名、称呼(大姨妈、小姨妈等)、英文->中文名字(李约翰)、成语词典
```
(可用于中文分词、姓名识别)
**11\. 中文缩写库:**[github](https://github.com/zhangyics/Chinese-abbreviation-dataset/blob/master/dev_set.txt)
```
全国人大: 全国/n 人民/n 代表大会/n
中国: 中华人民共和国/ns
女网赛: 女子/n 网球/n 比赛/vn
```
**12\. 汉语拆字词典:**[kfcd/chaizi](https://github.com/kfcd/chaizi)
```
漢字 拆法 (一) 拆法 (二) 拆法 (三)
拆 手 斥 扌 斥 才 斥
```
**13\. 词汇情感值:**[rainarch/SentiBridge](https://github.com/rainarch/SentiBridge/blob/master/Entity_Emotion_Express/CCF_data/pair_mine_result)
```
山泉水 充沛 0.400704566541 0.370067395878
视野 宽广 0.305762728932 0.325320747491
大峡谷 惊险 0.312137906517 0.378594957281
```
2019-01-25 17:33:33 +08:00
**14\. 中文词库、停用词、敏感词** [dongxiexidian/Chinese](https://github.com/fighting41love/Chinese_from_dongxiexidian)
2018-09-03 14:55:25 +08:00
此package的敏感词库分类更细
2019-01-25 17:33:33 +08:00
[反动词库](https://github.com/fighting41love/funNLP/tree/master/data/敏感词库) [敏感词库表统计](https://github.com/fighting41love/funNLP/tree/master/data/敏感词库) [暴恐词库](https://github.com/fighting41love/funNLP/tree/master/data/敏感词库) [民生词库](https://github.com/fighting41love/funNLP/tree/master/data/敏感词库) [色情词库](https://github.com/fighting41love/funNLP/tree/master/data/敏感词库)
2018-09-03 14:55:25 +08:00
**15\. 汉字转拼音:**[mozillazg/python-pinyin](https://github.com/mozillazg/python-pinyin)
文本纠错会用到
**16\. 中文繁简体互转:**[skydark/nstools](https://github.com/skydark/nstools/tree/master/zhtools)
**17\. 英文模拟中文发音引擎** funny chinese text to speech enginee[tinyfool/ChineseWithEnglish](https://github.com/tinyfool/ChineseWithEnglish)
```
say wo i ni
#说:我爱你
```
相当于用英文音标,模拟中文发音。
**18\. 汪峰歌词生成器:**[phunterlau/wangfeng-rnn](https://github.com/phunterlau/wangfeng-rnn)
```
我在这里中的夜里
就像一场是一种生命的意旪
就像我的生活变得在我一样
可我们这是一个知道
我只是一天你会怎吗
```
**19\. 同义词库、反义词库、否定词库:**[guotong1988/chinese_dictionary](https://github.com/guotong1988/chinese_dictionary)
2018-09-10 19:48:33 +08:00
**20\. 无空格英文串分割、抽取单词:**[wordinja](https://github.com/keredson/wordninja)
```
>>> import wordninja
>>> wordninja.split('derekanderson')
['derek', 'anderson']
>>> wordninja.split('imateapot')
['im', 'a', 'teapot']
```
2018-09-14 17:51:18 +08:00
**21\. IP地址正则表达式**
```
(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)\.(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)\.(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)\.(25[0-5]|2[0-4]\d|[0-1]\d{2}|[1-9]?\d)
```
**22\. 腾讯QQ号正则表达式**
```
[1-9]([0-9]{5,11})
```
**23\. 国内固话号码正则表达式:**
```
[0-9-()]{7,18}
```
**24\. 用户名正则表达式:**
```
[A-Za-z0-9_\-\u4e00-\u9fa5]+
```
**25\. 汽车品牌、汽车零件相关词汇:**
```
见本repo的data文件 [data](https://github.com/fighting41love/funNLP/tree/master/data)
2018-09-25 11:38:48 +08:00
```
2018-09-25 11:44:58 +08:00
**26\. 时间抽取:**
> 已集成到 python package [cocoNLP](https://github.com/fighting41love/cocoNLP)中,欢迎试用
2018-09-25 11:44:58 +08:00
```
在2016年6月7日9:44执行測試结果如下
2018-09-25 11:38:48 +08:00
Hiall。下周一下午三点开会
2018-09-25 11:46:26 +08:00
>> 2016-06-13 15:00:00-false
2018-09-25 11:38:48 +08:00
周一开会
2018-09-25 11:46:26 +08:00
>> 2016-06-13 00:00:00-true
2018-09-25 11:38:48 +08:00
下下周一开会
2018-09-25 11:46:26 +08:00
>> 2016-06-20 00:00:00-true
2018-09-25 11:38:48 +08:00
```
2018-09-25 11:44:58 +08:00
[java version]( https://github.com/shinyke/Time-NLP)
2018-09-25 12:10:34 +08:00
2018-09-25 12:13:41 +08:00
[python version](https://github.com/zhanzecheng/Time_NLP)
2018-09-25 12:14:21 +08:00
2018-11-09 11:20:13 +08:00
**27\. 各种中文词向量:** [github repo](https://github.com/Embedding/Chinese-Word-Vectors)
2018-10-22 18:26:25 +08:00
中文词向量大全
2018-10-22 18:58:51 +08:00
2018-11-09 11:20:13 +08:00
**28\. 公司名字大全:** [github repo](https://github.com/wainshine/Company-Names-Corpus)
2018-10-22 18:57:18 +08:00
2018-11-16 13:10:30 +08:00
**29\. 古诗词库:** [github repo](https://github.com/panhaiqi/AncientPoetry) [更全的古诗词库](https://github.com/chinese-poetry/chinese-poetry)
2018-10-22 18:57:18 +08:00
2018-11-09 11:20:13 +08:00
**30\. THU整理的词库** [link](http://thuocl.thunlp.org/sendMessage)
2018-10-22 19:20:18 +08:00
2018-10-22 19:22:07 +08:00
已整理到本repo的data文件夹中.
2018-10-22 19:20:18 +08:00
```
IT词库、财经词库、成语词库、地名词库、历史名人词库、诗词词库、医学词库、饮食词库、法律词库、汽车词库、动物词库
```
2018-11-09 11:20:13 +08:00
**31\. 中文聊天语料** [link](https://github.com/codemayq/chaotbot_corpus_Chinese)
2018-11-04 20:04:50 +08:00
```
该库搜集了包含:豆瓣多轮, PTT八卦语料, 青云语料, 电视剧对白语料, 贴吧论坛回帖语料,微博语料,小黄鸡语料
```
**32\. 中文谣言数据:** [github](https://github.com/thunlp/Chinese_Rumor_Dataset)
```
该数据文件中每一行为一条json格式的谣言数据字段释义如下
rumorCode: 该条谣言的唯一编码,可以通过该编码直接访问该谣言举报页面。
title: 该条谣言被举报的标题内容
informerName: 举报者微博名称
informerUrl: 举报者微博链接
rumormongerName: 发布谣言者的微博名称
rumormongerUr: 发布谣言者的微博链接
rumorText: 谣言内容
visitTimes: 该谣言被访问次数
result: 该谣言审查结果
publishTime: 该谣言被举报时间
```
2018-11-29 10:38:28 +08:00
**33\. 情感波动分析:**[github](https://github.com/CasterWx/python-girlfriend-mood/)
2018-11-29 10:39:11 +08:00
2018-11-29 10:38:28 +08:00
词库已整理到本repo的data文件夹中.
```
本repo项目是一个通过与人对话获得其情感值波动图谱, 内用词库在data文件夹中.
```
**34\. 百度中文问答数据集**[链接](https://pan.baidu.com/s/1QUsKcFWZ7Tg1dk_AbldZ1A) 提取码: 2dva
**35\. 句子、QA相似度匹配:MatchZoo** [github](https://github.com/NTMC-Community/MatchZoo)
文本相似度匹配算法的集合,包含多个深度学习的方法,值得尝试。
**36\. bert资源**
2019-02-26 22:58:12 +08:00
+ Bert原作者的slides: [link](https://pan.baidu.com/s/1OSPsIu2oh1iJ-bcXoDZpJQ)
提取码: iarj
+ 文本分类实践: [github](https://github.com/NLPScott/bert-Chinese-classification-task)
+ bert tutorial文本分类教程: [github](https://github.com/Socialbird-AILab/BERT-Classification-Tutorial)
+ bert pytorch实现: [github](https://github.com/huggingface/pytorch-pretrained-BERT)
+ bert用于中文命名实体识别 tensorflow版本: [github](https://github.com/macanv/BERT-BiLSTM-CRF-NER)
2019-01-26 09:47:02 +08:00
+ bert 基于 keras 的封装分类标注框架 Kashgari几分钟即可搭建一个分类或者序列标注模型: [github](https://github.com/BrikerMan/Kashgari)
+ bert、ELMO的图解 [github](https://jalammar.github.io/illustrated-bert/)
+ BERT: Pre-trained models and downstream applications: [github](https://github.com/asyml/texar/tree/master/examples/bert)
**37. Texar - Toolkit for Text Generation and Beyond**: [github](https://github.com/asyml/texar)
基于Tensorflow的开源工具包旨在支持广泛的机器学习特别是文本生成任务如机器翻译、对话、摘要、内容处置、语言建模等
**38. 中文事件抽取:** [github](https://github.com/liuhuanyong/ComplexEventExtraction)
中文复合事件抽取,包括条件事件、因果事件、顺承事件、反转事件等事件抽取,并形成事理图谱。
2018-12-14 10:39:20 +08:00
**39\. cocoNLP:** [github](https://github.com/fighting41love/cocoNLP)
人名、地址、邮箱、手机号、手机归属地 等信息的抽取rake短语抽取算法。
> pip install cocoNLP
```
>>> from cocoNLP.extractor import extractor
>>> ex = extractor()
>>> text = '急寻特朗普男孩于2018年11月27号11时在陕西省安康市汉滨区走失。丢失发型短发...如有线索请迅速与警方联系18100065143132-6156-2938baizhantang@sina.com.cn 和yangyangfuture at gmail dot com'
# 抽取邮箱
>>> emails = ex.extract_email(text)
>>> print(emails)
['baizhantang@sina.com.cn', 'yangyangfuture@gmail.com.cn']
# 抽取手机号
>>> cellphones = ex.extract_cellphone(text,nation='CHN')
>>> print(cellphones)
['18100065143', '13261562938']
# 抽取手机归属地、运营商
>>> cell_locs = [ex.extract_cellphone_location(cell,'CHN') for cell in cellphones]
>>> print(cell_locs)
cellphone_location [{'phone': '18100065143', 'province': '上海', 'city': '上海', 'zip_code': '200000', 'area_code': '021', 'phone_type': '电信'}]
# 抽取地址信息
>>> locations = ex.extract_locations(text)
>>> print(locations)
['陕西省安康市汉滨区', '安康市汉滨区', '汉滨区']
# 抽取时间点
>>> times = ex.extract_time(text)
>>> print(times)
time {"type": "timestamp", "timestamp": "2018-11-27 11:00:00"}
# 抽取人名
>>> name = ex.extract_name(text)
>>> print(name)
特朗普
```
2019-01-23 15:30:54 +08:00
**40\. 国内电话号码正则匹配(三大运营商+虚拟等):** [github](https://github.com/VincentSit/ChinaMobilePhoneNumberRegex)
**41\. 清华大学XLORE:中英文跨语言百科知识图谱:** [link](https://xlore.org/download.html)
上述链接中包含了所有实体及关系的TTL文件更多数据将在近期发布。
概念,实例,属性和上下位关系数目
2019-01-23 15:44:49 +08:00
| | 百度 |中文维基 | 英文维基 | 总数 |
|--|---|---|---|---|
|概念数量 |32,009 | 150,241| 326,518| 508,768 |
|实例数量| 1,629,591 |640,622| 1,235,178| 3,505,391 |
|属性数量| 157,370 |45,190 |26,723 |229.283 |
|InstanceOf| 7,584,931| 1,449,925| 3,032,515 |12,067,371 |
|SubClassOf| 2,784 |191,577| 555,538 |749,899 |
2019-01-23 15:30:54 +08:00
跨语言连接(概念/实例)
2019-01-23 15:44:49 +08:00
| | 百度 | 中文维基 | 英文维基 |
|--|---|---|--|
|百度| -| 10,216/336,890| 4,846/303,108 |
|中文维基| 10,216/336,890| - |28,921/454,579 |
|英文维基| 4,846/303,108 |28,921/454,579| - |
2019-01-23 15:30:54 +08:00
2019-01-23 15:42:41 +08:00
**42\. 清华大学人工智能技术系列报告:** [link](https://reports.aminer.cn)
2019-01-23 15:30:54 +08:00
每年会出AI领域相关的报告内容包含
- 自然语言处理 [link](https://static.aminer.cn/misc/article/nlp.pdf)
- 知识图谱 [link](https://www.aminer.cn/research_report/5c3d5a8709%20e961951592a49d?download=true&pathname=knowledgegraph.pdf)
- 数据挖掘 [link](https://www.aminer.cn/research_report/5c3d5a5cecb160952fa10b76?download=true&pathname=datamining.pdf)
- 自动驾驶 [link](https://static.aminer.cn/misc/article/selfdriving.pdf)
- 机器翻译 [link](https://static.aminer.cn/misc/article/translation.pdf)
- 区块链 [link](https://static.aminer.cn/misc/article/blockchain_public.pdf)
- 机器人 [link](https://static.aminer.cn/misc/article/robotics_beta.pdf)
- 计算机图形学 [link](https://static.aminer.cn/misc/article/cg.pdf)
- 3D打印 [link](https://static.aminer.cn/misc/article/3d.pdf)
- 人脸识别 [link](https://static.aminer.cn/misc/article/facerecognition.pdf)
- 人工智能芯片 [link](https://static.aminer.cn/misc/article/aichip.pdf)
- 等等
**43\.自然语言生成方面:**
2019-01-23 15:42:41 +08:00
[Ehud Reiter教授的博客](https://ehudreiter.com) 北大万小军教授强力推荐该博客对NLG技术、评价与应用进行了深入的探讨与反思。
[文本生成相关资源大列表](https://github.com/ChenChengKuan/awesome-text-generation)
[自然语言生成:让机器掌握自动创作的本领 - 开放域对话生成及在微软小冰中的实践](https://drive.google.com/file/d/1Mdna3q986k6OoJNsfAHznTtnMAEVzv5z/view)
[文本生成控制](https://github.com/harvardnlp/Talk-Latent/blob/master/main.pdf)
2019-01-23 15:30:54 +08:00
**44\.:**
[jieba](https://github.com/fxsjy/jieba)和[hanlp](https://github.com/hankcs/pyhanlp)就不必介绍了吧。
2019-01-23 20:03:21 +08:00
**45\.NLP太难了系列:** [github](https://github.com/fighting41love/hardNLP)
- 来到杨过曾经生活过的地方,小龙女动情地说:“我也想过过过儿过过的生活。”
- 来到儿子等校车的地方,邓超对孙俪说:“我也想等等等等等过的那辆车。”
- 赵敏说:我也想控忌忌己不想无忌。
- 你也想犯范范范玮琪犯过的错吗
- 对叙打击是一次性行为?
2019-01-23 15:30:54 +08:00
**46\.自动对联数据及机器人:**
[70万对联数据 link](https://github.com/wb14123/couplet-dataset)
[代码 link](https://github.com/wb14123/seq2seq-couplet)
上联 |下联
--|--
殷勤怕负三春意 | 潇洒难书一字愁
如此清秋何吝酒 | 这般明月不须钱
**47\.用户名黑名单列表:** [github](https://github.com/marteinn/The-Big-Username-Blacklist)
包含了用户名禁用列表,比如: [link](https://github.com/marteinn/The-Big-Username-Blacklist/blob/master/list_raw.txt)
```
administrator
administration
autoconfig
autodiscover
broadcasthost
domain
editor
guest
host
hostmaster
info
keybase.txt
localdomain
localhost
master
mail
mail0
mail1
```
**48\.罪名法务名词及分类模型:** [github](https://github.com/liuhuanyong/CrimeKgAssitant)
```
包含856项罪名知识图谱, 基于280万罪名训练库的罪名预测,基于20W法务问答对的13类问题分类与法律资讯问答功能
```
**49\.微信公众号语料:** [github](https://github.com/nonamestreet/weixin_public_corpus)
3G语料包含部分网络抓取的微信公众号的文章已经去除HTML只包含了纯文本。每行一篇是JSON格式name是微信公众号名字account是微信公众号IDtitle是题目content是正文
2019-02-26 22:58:12 +08:00
**50\.cs224n深度学习自然语言处理课程**[link](http://web.stanford.edu/class/cs224n/)
- 课程中模型的pytorch实现 [link](https://github.com/DSKSD/DeepNLP-models-Pytorch)
- 面向深度学习研究人员的自然语言处理实例教程 [link](https://github.com/graykode/nlp-tutorial)
2019-01-23 15:30:54 +08:00
**51\.中文手写汉字识别:**[github](https://github.com/chizhanyuefeng/Chinese_OCR_CNN-RNN-CTC)
**52\.中文自然语言处理 语料/数据集:**[github](https://github.com/SophonPlus/ChineseNlpCorpus)
[竞品THUOCLTHU Open Chinese Lexicon中文词库](https://github.com/thunlp/THUOCL)
**53\.变量命名神器:**[github](https://github.com/unbug/codelf) [link](https://unbug.github.io/codelf/)
2019-02-26 22:58:12 +08:00
**54\.分词语料库:**[百度网盘链接](https://pan.baidu.com/s/1MXZONaLgeaw0_TxZZDAIYQ)
- 提取码: pea6
- [keras实现的基于Bi-LSTM + CRF的中文分词+词性标注](https://github.com/GlassyWing/bi-lstm-crf)
- [基于Universal Transformer + CRF 的中文分词和词性标注](https://github.com/GlassyWing/transformer-word-segmenter)
- [快速神经网络分词包 java version](https://github.com/yaoguangluo/NeroParser)
**55\. NLP新书推荐《Natural Language Processing》by Jacob Eisenstein** [link](https://github.com/jacobeisenstein/gt-nlp-class/blob/master/notes/eisenstein-nlp-notes.pdf)
**56\. 任务型对话英文数据集:** [github](https://github.com/AtmaHou/Task-Oriented-Dialogue-Dataset-Survey)
【最全任务型对话数据集】主要介绍了一份任务型对话数据集大全这份数据集大全涵盖了到目前在任务型对话领域的所有常用数据集的主要信息。此外为了帮助研究者更好的把握领域进展的脉络我们以Leaderboard的形式给出了几个数据集上的State-of-the-art实验结果。
**57\. ASR 语音数据集 + 基于深度学习的中文语音识别系统:** [github](https://github.com/nl8590687/ASRT_SpeechRecognition)
+ Data Sets 数据集
* **清华大学THCHS30中文语音数据集**
data_thchs30.tgz
[OpenSLR国内镜像](<http://cn-mirror.openslr.org/resources/18/data_thchs30.tgz>)
[OpenSLR国外镜像](<http://www.openslr.org/resources/18/data_thchs30.tgz>)
test-noise.tgz
[OpenSLR国内镜像](<http://cn-mirror.openslr.org/resources/18/test-noise.tgz>)
[OpenSLR国外镜像](<http://www.openslr.org/resources/18/test-noise.tgz>)
resource.tgz
[OpenSLR国内镜像](<http://cn-mirror.openslr.org/resources/18/resource.tgz>)
[OpenSLR国外镜像](<http://www.openslr.org/resources/18/resource.tgz>)
* **Free ST Chinese Mandarin Corpus**
ST-CMDS-20170001_1-OS.tar.gz
[OpenSLR国内镜像](<http://cn-mirror.openslr.org/resources/38/ST-CMDS-20170001_1-OS.tar.gz>)
[OpenSLR国外镜像](<http://www.openslr.org/resources/38/ST-CMDS-20170001_1-OS.tar.gz>)
* **AIShell-1 开源版数据集**
data_aishell.tgz
[OpenSLR国内镜像](<http://cn-mirror.openslr.org/resources/33/data_aishell.tgz>)
[OpenSLR国外镜像](<http://www.openslr.org/resources/33/data_aishell.tgz>)
注:数据集解压方法
```
$ tar xzf data_aishell.tgz
$ cd data_aishell/wav
$ for tar in *.tar.gz; do tar xvf $tar; done
```
* **Primewords Chinese Corpus Set 1**
primewords_md_2018_set1.tar.gz
[OpenSLR国内镜像](<http://cn-mirror.openslr.org/resources/47/primewords_md_2018_set1.tar.gz>)
[OpenSLR国外镜像](<http://www.openslr.org/resources/47/primewords_md_2018_set1.tar.gz>)
**57\. ASR 语音数据集 + 基于深度学习的中文语音识别系统:** [github](https://github.com/nl8590687/ASRT_SpeechRecognition)
**58\. 笑声检测器:** [github]([https://github.com/nl8590687/ASRT_SpeechRecognition](https://github.com/ideo/LaughDetection))
**59\. Microsoft多语言数字/单位/如日期时间识别包:** [github](https://github.com/Microsoft/Recognizers-Text)