8919053 indexea 1673024392
191
基于 NLP 技术实现的中文分词插件,准确度比常用的分词器高太多,同时提供 ElasticSearch 和 OpenSearch 插件。
Java
6个月前
11
基于中文基础词库,并结合自定义词库进行分词的系统。 词库将持续进行更新,但2023年起语义理解为新研究方向。
PHP
接近2年前
2
1.功能单一,只有中文分词功能,没有词性标注及分析等功能 2.分词速度快(词库实现了分块查询,比一般的分词系统上快3-4倍) 3.分词准确率高(实现了管道输出输入,分词过程被划分为多个单独处理的阶段) 4.一键部署,容易使用(可以作为java包直接调用,也可以二次开发,代码开源) 5.在算法层及代码层实现了优化处理
Java
1年多前
0
一个简单的中文分词算法实现(gitee版介绍)
Python
2年前
10042288 luohanguocom 1659668937
0
用C#开发的文本分析和处理的Windows应用窗体程序,小巧轻便。在可视化界面下,支持一键剔除词语,一键替换词语,一键统计词频或统计所有词频,一键生成词云或者标记重点句子。 基于JieBa.Net和WordCloudSharp等库开发。后续会继续更新。 可用于考研或学习需要的文本分析处理方面。开源方便大家学习交流,希望大家也可以多多提出建议。
C#
1年多前

搜索帮助