常用的中文预训练模型与词向量下载地址收藏

2024-04-11

常用的中文预训练模型与词向量下载地址收藏

本仓库收集了常用的中文预训练模型和预训练词向量的下载地址,旨在为自然语言处理(NLP)研究者和开发者提供便捷的资源获取途径。以下是本仓库中包含的主要资源:

预训练模型

  1. Google原版BERT
    • 描述:Google官方发布的中文BERT预训练模型。
    • 文件格式:zip
  2. 中文XLNET预训练模型
    • 描述:由Yiming Cui等人发布的中文XLNET预训练模型,支持TensorFlow和PyTorch版本。
    • 文件格式:zip
  3. 中文BERT预训练模型
    • 描述:由Google发布的中文BERT预训练模型,适用于多种NLP任务。
    • 文件格式:zip
  4. 中文MacBERT预训练模型
    • 描述:由Yiming Cui等人发布的中文MacBERT预训练模型,适用于中文文本纠错任务。
    • 文件格式:zip
  5. 中文ELECTRA预训练模型
    • 描述:由Yiming Cui等人发布的中文ELECTRA预训练模型,适用于多种NLP任务。
    • 文件格式:zip
  6. 中文BERT-wwm预训练模型
    • 描述:由Yiming Cui等人发布的中文BERT-wwm预训练模型,适用于中文分词任务。
    • 文件格式:zip
  7. 中文RoBERTa预训练模型
    • 描述:由Brightmart发布的中文RoBERTa预训练模型,适用于多种NLP任务。
    • 文件格式:zip

预训练词向量

  1. 常用英文单词的词向量
    • 描述:包含50d、100d、200d、300d维度的常用英文单词词向量。
    • 文件格式:zip
  2. 常用中文词向量
    • 描述:包含多种维度的常用中文词向量,适用于中文NLP任务。
    • 文件格式:zip

使用说明

  1. 下载资源:请根据上述列表中的描述,选择所需的预训练模型或词向量进行下载。
  2. 解压文件:下载完成后,解压相应的zip文件以获取模型或词向量文件。
  3. 使用模型:根据具体的NLP任务需求,加载相应的预训练模型进行微调或直接使用。
  4. 使用词向量:将下载的词向量文件加载到您的NLP项目中,用于词嵌入或其他相关任务。

注意事项

  • 本仓库提供的资源均为开源资源,使用时请遵守相应的开源协议。
  • 部分资源可能需要特定的软件环境(如TensorFlow或PyTorch),请确保您的环境配置正确。

希望本仓库的资源能够帮助您在NLP研究与开发中取得更好的成果!

下载链接

常用的中文预训练模型与词向量下载地址收藏