Skip to content

we1l1n/PKUSeg

 
 

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

86 Commits
 
 
 
 
 
 

Repository files navigation

PKUSeg:一个高准确度的中文分词工具包

PKUSeg简单易用,支持多领域分词,在不同领域的数据上都大幅提高了分词的准确率。

目录

主要亮点

PKUSeg是由北京大学语言计算与机器学习研究组研制推出的一套全新的中文分词工具包。PKUSeg具有如下几个特点:

  1. 高分词准确率。相比于其他的分词工具包,我们的工具包在不同领域的数据上都大幅提高了分词的准确度。根据我们的测试结果,PKUSeg分别在示例数据集(MSRA和CTB8)上降低了79.33%和63.67%的分词错误率。
  2. 多领域分词。我们训练了多种不同领域的分词模型。根据待分词的领域特点,用户可以自由地选择不同的模型。
  3. 支持用户自训练模型。支持用户使用全新的标注数据进行训练。

各类分词工具包的性能对比

我们选择THULAC、结巴分词等国内代表分词工具包与PKUSeg做性能比较。我们选择Windows作为测试环境,在新闻数据(MSRA)和混合型文本(CTB8)数据上对不同工具包进行了速度和准确率测试。我们使用了第二届国际汉语分词评测比赛提供的分词评价脚本。评测结果如下:

MSRA Time F-score Error Rate
jieba 0.82s 81.45 18.55
THULAC 7.12s 85.48 14.52
PKUSeg 9.49s 96.75 (+13.18%) 3.25 (-77.62%)
CTB8 Time F-score Error Rate
jieba 1.29s 79.58 20.42
THULAC 5.15s 87.77 12.23
PKUSeg 6.78s 95.64 (+8.97%) 4.36 (-64.35%)

使用方式

  • 运行可执行文件目录下的pkuseg.exe程序
  • 分词模式:pkuseg.exe test [-input file] [-output file]
  • 训练模式:pkuseg.exe train [-train file] [-test file]
  • 从文本文件输入输出(注意均为UTF8文本)
  • linux环境需要配置mono使用
  • run.bat文件提供了运行样例

参数说明

test  分词
train 训练
[-input] 用户指定的待分词文件
[-output] 用户指定的分词结果输出文件
[-trainFile] & [-testFile] 用户标注的语料,句子之间以换行符分隔,词语之间以空格分隔

运行样例

pkuseg.exe test data/input.txt data/output.txt 		windows环境下进行分词
pkuseg.exe train data/train.txt data/test.txt 		根据指定的训练文件训练,训练模型会保存到./model目录下
mono pkuseg.exe test data/input.txt data/output.txt 	linux环境下进行分词

预训练模型

分词模式下,用户需要在./model目录下加载预训练好的模型。我们提供了三种在不同类型数据上训练得到的模型,根据具体需要,用户可以选择不同的预训练模型。以下是对预训练模型的说明:

MSRA: 在MSRA(新闻语料)上训练的模型。下载地址

CTB8: 在CTB8(新闻文本及网络文本的混合型语料)上训练的模型。下载地址

WEIBO: 在微博(网络文本语料)上训练的模型。下载地址

其中,MSRA数据由第二届国际汉语分词评测比赛提供,CTB8数据由LDC提供,WEIBO数据由NLPCC分词比赛提供。

开源协议

  1. PKUSeg面向国内外大学、研究所、企业以及个人用于研究目的免费开放源代码。
  2. 如有机构或个人拟将PKUSeg用于商业目的,请发邮件至xusun@pku.edu.cn洽谈技术许可协议。
  3. 欢迎对该工具包提出任何宝贵意见和建议,请发邮件至jingjingxu@pku.edu.cn

相关论文

若使用此工具包,请引用如下文章:

  • Xu Sun, Houfeng Wang, Wenjie Li. Fast Online Training with Frequency-Adaptive Learning Rates for Chinese Word Segmentation and New Word Detection. ACL. 253–262. 2012
@inproceedings{DBLP:conf/acl/SunWL12,
author = {Xu Sun and Houfeng Wang and Wenjie Li},
title = {Fast Online Training with Frequency-Adaptive Learning Rates for Chinese Word Segmentation and New Word Detection},
booktitle = {The 50th Annual Meeting of the Association for Computational Linguistics, Proceedings of the Conference, July 8-14, 2012, Jeju Island, Korea- Volume 1: Long Papers},
pages = {253--262},
year = {2012}}
  • Jingjing Xu, Xu Sun. Dependency-based Gated Recursive Neural Network for Chinese Word Segmentation. ACL 2016: 567-572
@inproceedings{DBLP:conf/acl/XuS16,
author = {Jingjing Xu and Xu Sun},
title = {Dependency-based Gated Recursive Neural Network for Chinese Word Segmentation},
booktitle = {Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, {ACL} 2016, August 7-12, 2016, Berlin, Germany, Volume 2: Short Papers},
year = {2016}}

作者

Xu Sun (孙栩,导师), Jingjing Xu(许晶晶,博士生)

About

高准确度中文分词工具,简单易用,跟现有开源工具相比大幅提高了分词的准确率。

Resources

Stars

Watchers

Forks

Packages

No packages published

Languages

  • C# 98.5%
  • Smalltalk 1.5%