nlp_xiaojiang/readme.md
2019-04-09 23:39:43 +08:00

2.7 KiB
Raw Blame History

nlp_xiaojiang

AugmentText

- 回译(效果比较好)
- EDA同义词替换、插入、交换和删除效果还行
- HMM-marko质量较差
- syntax依存句法、句法、语法书todo

ChatBot

- 检索式ChatBot
    - 像ES那样直接检索(如使用fuzzywuzzy),只能字面匹配
    - 构造句向量,检索问答库,能够检索有同义词的句子
- 生成式ChatBottodo
    - seq2seq
    - GAN

FeatureProject

- normalization_util指的是数据归一化
    - 0-1归一化处理
    - 均值归一化
    - sig归一化处理
- sim feature这里只有ML没有bert、emlo等的句向量相似度
    - distance_text_or_vec:各种计算文本、向量距离等
    - distance_vec_TS_SSTS_SS计算词向量距离
    - cut_td_idf将小黄鸡语料和gossip结合
    - sentence_sim_feature计算两个文本的相似度或者距离例如qq问题和问题或者qa问题和答案

run(可以在win10下,pycharm下运行)

  • 1.创建tf-idf文件等运行2需要先跑1: python cut_td_idf.py
  • 2.计算两个句子间的各种相似度先计算一个预定义的然后可输入自定义的先跑1: python sentence_sim_feature.py
  • 3.chatbot_1跑起来(fuzzy检索-没)独立python chatbot_fuzzy.py
  • 4.chatbot_2跑起来(句向量检索-词)独立python chatbot_sentence_vec_by_word.py
  • 5.chatbot_3跑起来(句向量检索-字)独立python chatbot_sentence_vec_by_char.py
  • 6.数据增强eda) python enhance_eda.py
  • 7.数据增强marko: python enhance_marko.py
  • 8.数据增强translate_account: python translate_tencent_secret.py
  • 9.数据增强translate_tools: python translate_translate.py
  • 10.数据增强translate_web: python translate_google.py

Data

- chinese_vector
    - 截取的部分word2vec训练词向量自己需要下载全效果才会好
- corpus
    - 小黄鸡和gossip问答预料数据没清洗
- sentence_vec_encode_char
    - 1.txt字向量生成的前100000句向量
- sentence_vec_encode_word
    - 1.txt词向量生成的前100000句向量
- tf_idfchicken_and_gossip.txt生成的tf-idf

requestments.txt

- python_Levenshtei
    - 调用Levenshtein我的python是3.6
    - 打开其源文件https://www.lfd.uci.edu/~gohlke/pythonlibs/
    - 查找python_Levenshtein-0.12.0-cp36-cp36m-win_amd64.whl下载即可
- pyemd
- pyhanlp
    - 下好依赖JPype1-0.6.3-cp36-cp36m-win_amd64.whl