Press "Enter" to skip to content

NLP – BERT/ERNIE 文本分类和部署

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

作者: 艾力亚尔(微博 @艾力亚尔)

 

自然语言处理研发工程师,Kashgari框架开发者,欢迎Star:

 

https://github.com/BrikerMan/Kashgari

 

Kashgari is a Production-ready Transfer learning framework for text-labeling and text-classification, includes Word2Vec, BERT, and GPT2 Language Embedding.

 

本文主要是介绍使用 Kashgari 框架实现 BERT 文本分类及使用 Tensorflow Serving 方式部署模型。

 

数据处理

 

我们使用新浪微博情感分类数据集,数据集很简单,只有二分类。此外还需要下载 BERT 模型和对应的分词器。

 

下载数据链接:link

 

下载 BERT 模型:link

 

下载 BERT 分词器:link

 

(注:下载链接请点击阅读原文到博客直接下载,公众号文章无法点击外链)

 

安装 Kashgari: pip install kashgari-tf

 

如果想使用 ERNIE 模型,则需要下载 Tensorflow_ERNIE.

 

1id label review 262050 0 太过分了@Rexzhenghao 368263 0 希望你?得好?我本"?肥血?史"[晕][哈哈]@Pete三姑父 481472 0 有点想参加????[偷?]想安排下时间再决定[抓狂] 542021 1 [给力]感谢所有支持雯婕的芝麻![爱你] 67777 1 2013最后一天,在新加坡开心度过,向所有的朋友们问声:新年快乐!2014年,我们会更好[调... 7100399 0 大中午出门办事找错路,曝晒中。要多杯具有多杯具。[泪][泪][汗] 882398 0 马航还会否认吗?到底在隐瞒啥呢?[抓狂] 

 

预处理

 

 1import pandas as pd
 2from tokenization import BasicTokenizer
 3
 4tokenizer = BasicTokenizer()
 5
 6df = pd.read_csv('weibo_senti_100k.csv')
 7# 进行分词处理
 8df['cutted'] = df['review'].apply(lambda x: tokenizer.tokenize(x))
 9
10# 准备训练测试数据集
11train_x = list(df['cutted'][:int(len(df)*0.7)])
12train_y = list(df['label'][:int(len(df)*0.7)])
13
14valid_x = list(df['cutted'][int(len(df)*0.7):int(len(df)*0.85)])
15valid_y = list(df['label'][int(len(df)*0.7):int(len(df)*0.85)])
16
17test_x = list(df['cutted'][int(len(df)*0.85):])
18test_y = list(df['label'][int(len(df)*0.85):])

 

训练验证模型

 

接下来我们初始化 Embedding 和模型,并且训练。

 

 1import kashgari
 2from kashgari.embeddings import BERTEmbedding
 3from kashgari.tasks.classification import BiLSTM_Model
 4
 5BERT_PATH = '<BERT/ERNIE 模型路径>'
 6
 7# 初始化 Embedding
 8embed = BERTEmbedding(BERT_PATH,
 9                     task=kashgari.CLASSIFICATION,
10                     sequence_length=64)
11
12# 使用 embedding 初始化模型
13model = BiLSTM_Model(embed)
14# 先只训练一轮
15model.fit(train_x, train_y, valid_x, valid_y, batch_size=1024, epochs=1)
16Kashgari 内置了验证方法 evaluate,使用非常方便。
17
18model.evaluate(test_x, test_y, batch_size=512)

 

评估结果如下,已经可以达到 92% 还不错。接下来保存模型并且部署。

 

1              precision    recall  f1-score   support
2
3           0     0.9351    0.9187    0.9269      9069
4           1     0.9189    0.9353    0.9270      8930
5
6                             0.9269     17999
7   macro avg     0.9270    0.9270    0.9269     17999
8weighted avg     0.9271    0.9269    0.9269     17999

 

保存模型

 

首先使用内置方法完整保存模型,以便后续使用。

 

1model.save('bert_model')

 

然后把模型转换为 SavedModel 格式。

 

1import kashgari
2kashgari.utils.convert_to_saved_model(model, 'tf_bert_model', version=1)

 

Tensorflor Serving 部署

 

使用 docker 启动支持 GPU 的 Tensorflor Serving,如果没有接触过 Tensorflow Serving,可以查阅 TensorFlow Serving入门 一文。

 

1docker run --runtime=nvidia -p 8501:8501 \
2  -v `pwd`/tf_bert_model:/models/tf_bert_model \
3  -e MODEL_NAME=tf_bert_model -t tensorflow/serving:1.14.0-gpu

 

如果没有配置 Docker GPU 环境,则可以使用 tensorflow/serving CPU 版本启动。

 

1docker run -p 8501:8501 \
2  -v `pwd`/tf_bert_model:/models/tf_bert_model \
3  -e MODEL_NAME=tf_bert_model -t tensorflow/serving:1.14.0

 

此时我们已经部署好了 Tensorflow Serving 模型,但是模型的输出输出均为张量,我们还需要对输入进行预处理才能使用。Kashgari 中提供了工具方法简化处理过程。

 

 1import requests
 2from kashgari import utils
 3import numpy as np
 4
 5x = ['这', '个', '价', '不', '算', '高', ',', '和', '一', '天', '内', '训', '相', '比', '相', '差', '无', '几']
 6
 7# 从保存模型加载词表
 8processor = utils.load_processor(model_path='tf_bert_model/1')
 9# 输入转换成张量
10tensor = processor.process_x_dataset([x])
11
12# 格式化为 BERT 格式
13tensor = [{
14   "Input-Token:0": i.tolist(),
15   "Input-Segment:0": np.zeros(i.shape).tolist()
16} for i  tensor]
17
18# 进行预测
19r = requests.post("http://localhost:8501/v1/models/tf_bert_model:predict",
20                  json={"instances": tensor.tolist()})
21preds = r.json()['predictions']
22label_index = np.array(preds).argmax(-1)
23# 把预测结果转换成具体的标签
24labels = processor.reverse_numerize_label_sequences(label_index)

 

原文链接:

 

https://eliyar.biz/nlp_train_and_deploy_bert_text_classification/

 

Be First to Comment

发表评论

邮箱地址不会被公开。 必填项已用*标注