このコースについて

102,937 最近の表示

受講生の就業成果

38%

コース終了後に新しいキャリアをスタートした

42%

コースが具体的なキャリアアップにつながった

43%

昇給や昇進につながった
共有できる証明書
修了時に証明書を取得
100%オンライン
自分のスケジュールですぐに学習を始めてください。
次における7の6コース
柔軟性のある期限
スケジュールに従って期限をリセットします。
上級レベル
約32時間で修了
英語

習得するスキル

ChatterbotTensorflowDeep LearningNatural Language Processing

受講生の就業成果

38%

コース終了後に新しいキャリアをスタートした

42%

コースが具体的なキャリアアップにつながった

43%

昇給や昇進につながった
共有できる証明書
修了時に証明書を取得
100%オンライン
自分のスケジュールですぐに学習を始めてください。
次における7の6コース
柔軟性のある期限
スケジュールに従って期限をリセットします。
上級レベル
約32時間で修了
英語

提供:

Placeholder

ロシア国立研究大学経済高等学院(National Research University Higher School of Economics)

シラバス - 本コースの学習内容

コンテンツの評価Thumbs Up89%(5,001 件の評価)Info
1

1

5時間で修了

Intro and text classification

5時間で修了
12件のビデオ (合計115分), 5 学習用教材, 3 個のテスト
12件のビデオ
About this course2 分
Welcome video5 分
Main approaches in NLP7 分
Brief overview of the next weeks7 分
[Optional] Linguistic knowledge in NLP10 分
Text preprocessing14 分
Feature extraction from text14 分
Linear models for sentiment analysis10 分
Hashing trick in spam filtering17 分
Neural networks for words14 分
Neural networks for characters8 分
5件の学習用教材
About the University10 分
Rules on the academic integrity in the course10 分
Prerequisites check-list2 分
Hardware for the course5 分
Getting started with practical assignments20 分
2の練習問題
Classical text mining10 分
Simple neural networks for text10 分
2

2

5時間で修了

Language modeling and sequence tagging

5時間で修了
8件のビデオ (合計84分), 2 学習用教材, 3 個のテスト
8件のビデオ
Perplexity: is our model surprised with a real text?8 分
Smoothing: what if we see new n-grams?7 分
Hidden Markov Models13 分
Viterbi algorithm: what are the most probable tags?11 分
MEMMs, CRFs and other sequential models for Named Entity Recognition11 分
Neural Language Models9 分
Whether you need to predict a next word or a label - LSTM is here to help!11 分
2件の学習用教材
Perplexity computation10 分
Probabilities of tag sequences in HMMs20 分
2の練習問題
Language modeling15 分
Sequence tagging with probabilistic models20 分
3

3

5時間で修了

Vector Space Models of Semantics

5時間で修了
8件のビデオ (合計83分)
8件のビデオ
Explicit and implicit matrix factorization13 分
Word2vec and doc2vec (and how to evaluate them)10 分
Word analogies without magic: king – man + woman != queen11 分
Why words? From character to sentence embeddings11 分
Topic modeling: a way to navigate through text collections7 分
How to train PLSA?6 分
The zoo of topic models13 分
2の練習問題
Word and sentence embeddings15 分
Topic Models10 分
4

4

5時間で修了

Sequence to sequence tasks

5時間で修了
9件のビデオ (合計98分)
9件のビデオ
Noisy channel: said in English, received in French6 分
Word Alignment Models12 分
Encoder-decoder architecture6 分
Attention mechanism9 分
How to deal with a vocabulary?12 分
How to implement a conversational chat-bot?11 分
Sequence to sequence learning: one-size fits all?10 分
Get to the point! Summarization with pointer-generator networks12 分
3の練習問題
Introduction to machine translation10 分
Encoder-decoder architectures20 分
Summarization and simplification15 分

レビュー

自然言語処理 からの人気レビュー

すべてのレビューを見る

上級機械学習専門講座について

上級機械学習

よくある質問

さらに質問がある場合は、受講者向けヘルプセンターにアクセスしてください。