10507099 iflytek 1709185994
1
在自然语言处理领域中,预训练语言模型(Pre-trained Language Models,PLMs)已成为非常重要的基础技术。在近两年,哈工大讯飞联合实验室发布了多种中文预训练模型资源以及相关配套工具。作为相关工作的延续,在本项目中,我们提出了一种基于乱序语言模型的预训练模型(PERT),在不引入掩码标记[MASK]的情况下自监督地学习文本语义信息。
1年多前
5746888 paddlepaddle 1583115535
0
FasterTransformer 镜像版本,用于高速下载服务于PaddleNLP的自动编译特性
1年前
10507099 iflytek 1709185994
0
Revisiting Pre-trained Models for Chinese Natural Language Processing (Findings of EMNLP)
3年前
12 mirrors 1578989292
0
Spark NLP 是一个构建在 Apache Spark 之上的最先进的自然语言处理库
Java
7个月前

搜索帮助