MindSpore Transformers套件的目标是构建一个大模型训练、推理、部署的全流程套件: 提供业内主流的Transformer类预训练模型, 涵盖丰富的并行特性。 期望帮助用户轻松的实现大模型训练。
文档:https://mindformers.readthedocs.io/zh-cn/latest/
QAnything (Question and Answer based on Anything) 是致力于支持任意格式文件或数据库的本地知识库问答系统,可断网安装使用。
星辰语义大模型TeleChat是由中电信人工智能科技有限公司研发训练的大语言模型
Fay是一个完整开源的数字人应用框架,向下对接语言模型,向上对接数字人。通过三个版本的Fay(带货版、助理版、agent版)及数字人模型的组合,可轻松实现:卖场导购、虚拟主播、数字人助理、虚拟服务员、虚拟教师、语音助手、文字助手、移动助手。
MindScience is scientific computing kits for various industries based on the converged MindSpore framework.
DeepKE是由浙江大学团队维护开源知识图谱抽取工具集。
统一推理工具链入口,提供客户一体化开发工具,支持一站式调试调优
ERNIE 2.0 是基于持续学习的语义理解预训练框架,使用多任务学习增量式构建预训练任务
FATE是由Webank的AI部门发起的开源项目,旨在提供安全的计算框架来支持联邦AI生态系统。 它基于同态加密和多方计算(MPC)实现安全的计算协议。 它支持联邦学习体系结构和各种机器学习算法的安全计算,包括逻辑回归,深度学习和迁移学习等。