Transformers在自然语言处理中的应用

2020-02-15

Transformers在自然语言处理中的应用

资源文件介绍

文件名称

Transformers for Natural Language Processing.pdf

文件描述

本书将带领您深入学习使用Python进行自然语言处理(NLP),并探索由Google、Facebook、Microsoft、OpenAI和Hugging Face等先驱者创建的变压器架构中的各种杰出模型和数据集。本书分为三个阶段,逐步提升您的技能:

  1. 第一阶段:从原始变压器开始,逐步过渡到RoBERTa、BERT和DistilBERT等模型。您将了解一些小型变压器的训练方法,这些方法在某些情况下甚至可以超越GPT-3。

  2. 第二阶段:应用自然语言理解(NLU)和自然语言生成(NLG)的变压器模型。您将学习如何处理和分析文本数据,并生成自然语言文本。

  3. 第三阶段:掌握高级语言理解技术,如优化社交网络数据集和假新闻识别。您将深入理解变压器模型在实际应用中的潜力和限制。

在本书的最后,您将从认知科学的角度理解变压器,并精通将技术巨头预先训练好的变压器模型应用于各种数据集。

您将学到什么

  • 使用最新的预训练变压器模型,掌握原始Transformer、GPT-2、BERT、T5等模型的原理。
  • 使用优于经典深度学习模型的概念,创建理解语言的Python程序。
  • 使用各种NLP平台,包括Hugging Face、Trax和AllenNLP。
  • 将Python、TensorFlow和Keras程序应用于情感分析、文本摘要、语音识别、机器翻译等任务。
  • 测量关键变压器的生产率,以定义其范围、潜力和生产限制。

本书适合对自然语言处理和变压器模型感兴趣的读者,尤其是那些希望深入了解和应用这些技术的Python开发者。

下载链接

Transformers在自然语言处理中的应用