このコースについて

79,634 最近の表示
共有できる証明書
修了時に証明書を取得
100%オンライン
自分のスケジュールですぐに学習を始めてください。
次における4の3コース
柔軟性のある期限
スケジュールに従って期限をリセットします。
中級レベル

Probabilities & Expectations, basic linear algebra, basic calculus, Python 3.0 (at least 1 year), implementing algorithms from pseudocode.

約22時間で修了
英語

習得するスキル

Artificial Intelligence (AI)Machine LearningReinforcement LearningFunction ApproximationIntelligent Systems
共有できる証明書
修了時に証明書を取得
100%オンライン
自分のスケジュールですぐに学習を始めてください。
次における4の3コース
柔軟性のある期限
スケジュールに従って期限をリセットします。
中級レベル

Probabilities & Expectations, basic linear algebra, basic calculus, Python 3.0 (at least 1 year), implementing algorithms from pseudocode.

約22時間で修了
英語

提供:

Placeholder

アルバータ大学(University of Alberta)

Placeholder

Alberta Machine Intelligence Institute

シラバス - 本コースの学習内容

コンテンツの評価Thumbs Up92%(2,074 件の評価)Info
1

1

1時間で修了

Welcome to the Course!

1時間で修了
2件のビデオ (合計12分), 2 学習用教材
2件のビデオ
Meet your instructors!8 分
2件の学習用教材
Read Me: Pre-requisites and Learning Objectives10 分
Reinforcement Learning Textbook10 分
5時間で修了

On-policy Prediction with Approximation

5時間で修了
13件のビデオ (合計69分), 2 学習用教材, 2 個のテスト
13件のビデオ
Generalization and Discrimination5 分
Framing Value Estimation as Supervised Learning3 分
The Value Error Objective4 分
Introducing Gradient Descent7 分
Gradient Monte for Policy Evaluation5 分
State Aggregation with Monte Carlo7 分
Semi-Gradient TD for Policy Evaluation3 分
Comparing TD and Monte Carlo with State Aggregation4 分
Doina Precup: Building Knowledge for AI Agents with Reinforcement Learning7 分
The Linear TD Update3 分
The True Objective for TD5 分
Week 1 Summary4 分
2件の学習用教材
Module 1 Learning Objectives10 分
Weekly Reading: On-policy Prediction with Approximation40 分
1の練習問題
On-policy Prediction with Approximation30 分
2

2

5時間で修了

Constructing Features for Prediction

5時間で修了
11件のビデオ (合計52分), 2 学習用教材, 2 個のテスト
11件のビデオ
Generalization Properties of Coarse Coding5 分
Tile Coding3 分
Using Tile Coding in TD4 分
What is a Neural Network?3 分
Non-linear Approximation with Neural Networks4 分
Deep Neural Networks3 分
Gradient Descent for Training Neural Networks8 分
Optimization Strategies for NNs4 分
David Silver on Deep Learning + RL = AI?9 分
Week 2 Review2 分
2件の学習用教材
Module 2 Learning Objectives10 分
Weekly Reading: On-policy Prediction with Approximation II40 分
1の練習問題
Constructing Features for Prediction28 分
3

3

6時間で修了

Control with Approximation

6時間で修了
7件のビデオ (合計41分), 2 学習用教材, 2 個のテスト
7件のビデオ
Episodic Sarsa in Mountain Car5 分
Expected Sarsa with Function Approximation2 分
Exploration under Function Approximation3 分
Average Reward: A New Way of Formulating Control Problems10 分
Satinder Singh on Intrinsic Rewards12 分
Week 3 Review2 分
2件の学習用教材
Module 3 Learning Objectives10 分
Weekly Reading: On-policy Control with Approximation40 分
1の練習問題
Control with Approximation40 分
4

4

6時間で修了

Policy Gradient

6時間で修了
11件のビデオ (合計55分), 2 学習用教材, 2 個のテスト
11件のビデオ
Advantages of Policy Parameterization5 分
The Objective for Learning Policies5 分
The Policy Gradient Theorem5 分
Estimating the Policy Gradient4 分
Actor-Critic Algorithm5 分
Actor-Critic with Softmax Policies3 分
Demonstration with Actor-Critic6 分
Gaussian Policies for Continuous Actions7 分
Week 4 Summary3 分
Congratulations! Course 4 Preview2 分
2件の学習用教材
Module 4 Learning Objectives10 分
Weekly Reading: Policy Gradient Methods40 分
1の練習問題
Policy Gradient Methods45 分

レビュー

PREDICTION AND CONTROL WITH FUNCTION APPROXIMATION からの人気レビュー

すべてのレビューを見る

強化学習専門講座について

強化学習

よくある質問

さらに質問がある場合は、受講者向けヘルプセンターにアクセスしてください。