一行代码使用BERT生成句向量,BERT做文本分类、文本相似度计算
data | ||
__init__.py | ||
.gitignore | ||
args.py | ||
bert_vec.py | ||
extract_feature.py | ||
graph.py | ||
LICENSE | ||
modeling.py | ||
optimization.py | ||
README.md | ||
requirements.txt | ||
similarity.py | ||
tokenization.py |
bert-utils
本文基于Google开源的BERT代码进行了进一步的简化,方便生成句向量与做文本分类
***** New July 1st, 2019 *****
- 修改句向量
graph
文件的生成方式,提升句向量启动速度。不再每次以临时文件的方式生成,首次执行extract_feature.py时会创建tmp/result/graph
, 再次执行时直接读取该文件,如果args.py
文件内容有修改,需要删除tmp/result/graph
文件 - 修复同时启动两个进程生成句向量时代码报错的bug
1、下载BERT中文模型
下载地址: https://storage.googleapis.com/bert_models/2018_11_03/chinese_L-12_H-768_A-12.zip
2、把下载好的模型添加到当前目录下
3、句向量生成
生成句向量不需要做fine tune,使用预先训练好的模型即可,可参考extract_feature.py
的main
方法,注意参数必须是一个list。
首次生成句向量时需要加载graph,并在output_dir路径下生成一个新的graph文件,因此速度比较慢,再次调用速度会很快
from bert.extrac_feature import BertVector
bv = BertVector()
bv.encode(['今天天气不错'])
4、文本分类
文本分类需要做fine tune,首先把数据准备好存放在data
目录下,训练集的名字必须为train.csv
,验证集的名字必须为dev.csv
,测试集的名字必须为test.csv
,
必须先调用set_mode
方法,可参考similarity.py
的main
方法,
训练:
from similarity import BertSim
import tensorflow as tf
bs = BertSim()
bs.set_mode(tf.estimator.ModeKeys.TRAIN)
bs.train()
验证:
from similarity import BertSim
import tensorflow as tf
bs = BertSim()
bs.set_mode(tf.estimator.ModeKeys.EVAL)
bs.eval()
测试:
from similarity import BertSim
import tensorflow as tf
bs = BertSim()
bs.set_mode(tf.estimator.ModeKeys.PREDICT)
bs.test()
5、DEMO中自带了蚂蚁金服的测试数据供大家使用,但该份数据区分度不大,建议使用QA_corpus数据集,这里给出地址