5460443 baidu 1578992824
232
LAC全称Lexical Analysis of Chinese,是百度自然语言处理部研发的一款联合的词法分析工具,实现中文分词、词性标注、专名识别等功能
8919053 indexea 1673024392
191
基于 NLP 技术实现的中文分词插件,准确度比常用的分词器高太多,同时提供 ElasticSearch 和 OpenSearch 插件。
Java
7个月前
No enterprise avatar
21
仿照Sphinx for Chinese,基于sphinx 2.2.9版本,结合cppJieba分词系统,让sphinx支持中文
C++
4年多前
442
Jiagu深度学习自然语言处理工具 知识图谱关系抽取 中文分词 词性标注 命名实体识别 情感分析 新词发现 关键词 文本摘要
1646371 tyoui 1578956781
13
拆分词语
1646371 tyoui 1578956781
61
该项目已经更换,在码云上不在更新,请更换地址如下。
436788 rockyzheng 1578923827
241
中文处理工具包,可能不是最快的开源中文分词,但很可能是最准的开源中文分词
138
基于HanLP自然语言处理包的elasticsearch分词器
Java
1年多前
125
Go 语言高效分词, 支持英文、中文、日文等
Go
2年多前
60
IK中文分词,兼容solr/lucene6.6.0,优化数字和英文搜索
Java
6年多前
438805 eavnfor 1578923885
16
针对mmseg4j (1.10.0)的拓展,弥补了多处不足,分词,随心所欲
Java
4年多前
109849 strwei 1578917934
8
sphinx结合结巴分词,在 https://github.com/frankee/sphinx-jieba 基础上解决了安装出错问题
C++
6年多前
372841 lishilei0523 1599393053
38
盘古分词组件,Forked from Eaglet
C#
12个月前
16979 ijz 1578915129
27
梁博在线分词pullword的perl客户端,支持直接结果以及返回一个分词词频的hash。
Perl
5年多前
68
kcws 是一个基于深度学习的分词系统和语料项目。 Deep Learning Chinese Word Segment
Python
6年多前

搜索帮助