Generating New Recipes using GPT-2

4.3
32件の評価
提供:
Coursera Project Network
2,636人がすでに登録済みです
このガイド付きプロジェクトでは、次のことを行います。

Clean and preprocess text data for modeling

Create datasets for large-scale language generation

Fine-tune large-scale language model on small and niche task of generating recipes

Clock90-120 minutes
Intermediate中級
Cloudダウンロード不要
Video分割画面ビデオ
Comment Dots英語
Laptopデスクトップのみ

In this 2 hour long project, you will learn how to preprocess a text dataset comprising recipes, and split it into a training and validation set. You will learn how to use the HuggingFace library to fine-tune a deep, generative model, and specifically how to train such a model on Google Colab. Finally, you will learn how to use GPT-2 effectively to create realistic and unique recipes from lists of ingredients based on the aforementioned dataset. This project aims to teach you how to fine-tune a large-scale model, and the sheer magnitude of resources it takes for these models to learn. You will also learn about knowledge distillation and its efficacy in use cases such as this one. Note: This course works best for learners who are based in the North America region. We’re currently working on providing the same experience in other regions.

あなたが開発するスキル

  • Python Programming
  • Machine Learning
  • Natural Language Processing

ステップバイステップで学習します

ワークエリアを使用した分割画面で再生するビデオでは、講師がこれらの手順を説明します。

  1. Introduction to the task and demo

  2. Exploratory data analysis and visualizations

  3. Dataset preparation

  4. GPT-2 theory and related machine learning concepts

  5. Model training on Google Colab

  6. Evaluating model performance empirically

ガイド付きプロジェクトの仕組み

ワークスペースは、ブラウザに完全にロードされたクラウドデスクトップですので、ダウンロードは不要です

分割画面のビデオで、講師が手順ごとにガイドします

レビュー

GENERATING NEW RECIPES USING GPT-2 からの人気レビュー

すべてのレビューを見る

よくある質問

よくある質問

さらに質問がある場合は、受講者ヘルプセンターにアクセスしてください。