常用的中文预训练模型与词向量下载地址收藏
本仓库收集了常用的中文预训练模型和预训练词向量的下载地址,旨在为自然语言处理(NLP)研究者和开发者提供便捷的资源获取途径。以下是本仓库中包含的主要资源:
预训练模型
- Google原版BERT
- 描述:Google官方发布的中文BERT预训练模型。
- 文件格式:zip
- 中文XLNET预训练模型
- 描述:由Yiming Cui等人发布的中文XLNET预训练模型,支持TensorFlow和PyTorch版本。
- 文件格式:zip
- 中文BERT预训练模型
- 描述:由Google发布的中文BERT预训练模型,适用于多种NLP任务。
- 文件格式:zip
- 中文MacBERT预训练模型
- 描述:由Yiming Cui等人发布的中文MacBERT预训练模型,适用于中文文本纠错任务。
- 文件格式:zip
- 中文ELECTRA预训练模型
- 描述:由Yiming Cui等人发布的中文ELECTRA预训练模型,适用于多种NLP任务。
- 文件格式:zip
- 中文BERT-wwm预训练模型
- 描述:由Yiming Cui等人发布的中文BERT-wwm预训练模型,适用于中文分词任务。
- 文件格式:zip
- 中文RoBERTa预训练模型
- 描述:由Brightmart发布的中文RoBERTa预训练模型,适用于多种NLP任务。
- 文件格式:zip
预训练词向量
- 常用英文单词的词向量
- 描述:包含50d、100d、200d、300d维度的常用英文单词词向量。
- 文件格式:zip
- 常用中文词向量
- 描述:包含多种维度的常用中文词向量,适用于中文NLP任务。
- 文件格式:zip
使用说明
- 下载资源:请根据上述列表中的描述,选择所需的预训练模型或词向量进行下载。
- 解压文件:下载完成后,解压相应的zip文件以获取模型或词向量文件。
- 使用模型:根据具体的NLP任务需求,加载相应的预训练模型进行微调或直接使用。
- 使用词向量:将下载的词向量文件加载到您的NLP项目中,用于词嵌入或其他相关任务。
注意事项
- 本仓库提供的资源均为开源资源,使用时请遵守相应的开源协议。
- 部分资源可能需要特定的软件环境(如TensorFlow或PyTorch),请确保您的环境配置正确。
希望本仓库的资源能够帮助您在NLP研究与开发中取得更好的成果!