Deep Learning NLP: Training GPT-2 from scratch

4.1
27件の評価
提供:
Coursera Project Network
このガイド付きプロジェクトでは、次のことを行います。

Understand the history of GPT-2 and Transformer Architecture Basics

Learn the requirements for a custom training set

Learn how to use functions available in public repositories to fine-tune or train GPT-2 on custom data and generate text

Clock2 hours
Beginner初級
Cloudダウンロード不要
Video分割画面ビデオ
Comment Dots英語
Laptopデスクトップのみ

In this 1-hour long project-based course, we will explore Transformer-based Natural Language Processing. Specifically, we will be taking a look at re-training or fine-tuning GPT-2, which is an NLP machine learning model based on the Transformer architecture. We will cover the history of GPT-2 and it's development, cover basics about the Transformer architecture, learn what type of training data to use and how to collect it, and finally, perform the fine tuning process. In the final task, we will discuss use cases and what the future holds for Transformer-based NLP. I would encourage learners to do further research and experimentation with the GPT-2 model, as well as other NLP models! Note: This course works best for learners who are based in the North America region. We’re currently working on providing the same experience in other regions.

あなたが開発するスキル

Artificial Intelligence (AI)TensorflowMachine LearningNatural Language Processing

ステップバイステップで学習します

ワークエリアを使用した分割画面で再生するビデオでは、講師がこれらの手順を説明します。

  1. Introducing GPT-2

  2. Intro to Transformers

  3. Gathering a Dataset

  4. Training and Fine Tuning our Model

  5. Use Cases and the Future

ガイド付きプロジェクトの仕組み

ワークスペースは、ブラウザに完全にロードされたクラウドデスクトップですので、ダウンロードは不要です

分割画面のビデオで、講師が手順ごとにガイドします

レビュー

DEEP LEARNING NLP: TRAINING GPT-2 FROM SCRATCH からの人気レビュー

すべてのレビューを見る

よくある質問

よくある質問

さらに質問がある場合は、受講者向けヘルプセンターにアクセスしてください。