Über diesen Kurs
4.1
196 Bewertungen
52 Bewertungen

100 % online

Beginnen Sie sofort und lernen Sie in Ihrem eigenen Tempo.

Flexible Fristen

Setzen Sie Fristen gemäß Ihrem Zeitplan zurück.

Stufe „Fortgeschritten“

Ca. 40 Stunden zum Abschließen

Empfohlen: 6 weeks of study, 3-6 hours/week for base track, 6-9 with all the horrors of honors section...

Englisch

Untertitel: Englisch, Koreanisch

100 % online

Beginnen Sie sofort und lernen Sie in Ihrem eigenen Tempo.

Flexible Fristen

Setzen Sie Fristen gemäß Ihrem Zeitplan zurück.

Stufe „Fortgeschritten“

Ca. 40 Stunden zum Abschließen

Empfohlen: 6 weeks of study, 3-6 hours/week for base track, 6-9 with all the horrors of honors section...

Englisch

Untertitel: Englisch, Koreanisch

Lehrplan - Was Sie in diesem Kurs lernen werden

Woche
1
5 Stunden zum Abschließen

Intro: why should i care?

In this module we gonna define and "taste" what reinforcement learning is about. We'll also learn one simple algorithm that can solve reinforcement learning problems with embarrassing efficiency....
13 Videos (Gesamt 84 min), 7 Lektüren, 3 Quiz
13 Videos
Reinforcement learning vs all3m
Multi-armed bandit4m
Decision process & applications6m
Markov Decision Process5m
Crossentropy method9m
Approximate crossentropy method5m
More on approximate crossentropy method6m
Evolution strategies: core idea6m
Evolution strategies: math problems5m
Evolution strategies: log-derivative trick8m
Evolution strategies: duct tape6m
Blackbox optimization: drawbacks4m
7 Lektüren
What you're getting into1m
Setting up course environment10m
Note: this course vs github course1m
Course teaser placeholder10m
Primers1m
About honors track1m
Extras10m
Woche
2
3 Stunden zum Abschließen

At the heart of RL: Dynamic Programming

This week we'll consider the reinforcement learning formalisms in a more rigorous, mathematical way. You'll learn how to effectively compute the return your agent gets for a particular action - and how to pick best actions based on that return....
5 Videos (Gesamt 54 min), 2 Lektüren, 4 Quiz
5 Videos
State and Action Value Functions13m
Measuring Policy Optimality6m
Policy: evaluation & improvement10m
Policy and value iteration8m
2 Lektüren
Advanced Reward Design10m
Discrete Stochastic Dynamic Programming10m
3 praktische Übungen
Reward design8m
Optimality in RL10m
Policy Iteration14m
Woche
3
5 Stunden zum Abschließen

Model-free methods

This week we'll find out how to apply last week's ideas to the real world problems: ones where you don't have a perfect model of your environment....
6 Videos (Gesamt 47 min), 1 Lektüre, 4 Quiz
6 Videos
Monte-Carlo & Temporal Difference; Q-learning8m
Exploration vs Exploitation8m
Footnote: Monte-Carlo vs Temporal Difference2m
Accounting for exploration. Expected Value SARSA.11m
On-policy vs off-policy; Experience replay7m
1 Lektüre
Extras10m
1 praktische Übung
Model-free reinforcement learning10m
Woche
4
5 Stunden zum Abschließen

Approximate Value Based Methods

This week we'll learn to scale things even farther up by training agents based on neural networks....
9 Videos (Gesamt 104 min), 3 Lektüren, 5 Quiz
9 Videos
Loss functions in value based RL11m
Difficulties with Approximate Methods15m
DQN – bird's eye view9m
DQN – the internals9m
DQN: statistical issues6m
Double Q-learning6m
More DQN tricks10m
Partial observability17m
3 Lektüren
TD vs MC10m
Extras10m
DQN follow-ups10m
3 praktische Übungen
MC & TD8m
SARSA and QLeaning8m
DQN12m
Woche
5
5 Stunden zum Abschließen

Policy-based methods

We spent 3 previous modules working on the value-based methods: learning state values, action values and whatnot. Now's the time to see an alternative approach that doesn't require you to predict all future rewards to learn something....
11 Videos (Gesamt 68 min), 1 Lektüre, 3 Quiz
11 Videos
All Kinds of Policies4m
Policy gradient formalism8m
The log-derivative trick3m
REINFORCE8m
Advantage actor-critic6m
Duct tape zone4m
Policy-based vs Value-based4m
Case study: A3C6m
A3C case study (2/2)3m
Combining supervised & reinforcement learning6m
1 Lektüre
Extras10m
1 praktische Übung
A policy-based quiz14m
Woche
6
5 Stunden zum Abschließen

Exploration

In this final week you'll learn how to build better exploration strategies with a focus on contextual bandit setup. In honor track, you'll also learn how to apply reinforcement learning to train structured deep learning models....
10 Videos (Gesamt 85 min), 4 Lektüren, 4 Quiz
10 Videos
Regret: measuring the quality of exploration6m
The message just repeats. 'Regret, Regret, Regret.'5m
Intuitive explanation7m
Thompson Sampling5m
Optimism in face of uncertainty5m
UCB-16m
Bayesian UCB11m
Introduction to planning17m
Monte Carlo Tree Search10m
4 Lektüren
Extras: exploration10m
Extras: planning10m
Materials10m
Outro10m
2 praktische Übungen
Exploration6m
MCTS8m
4.1
52 BewertungenChevron Right

20%

nahm einen neuen Beruf nach Abschluss dieser Kurse auf

50%

ziehen Sie für Ihren Beruf greifbaren Nutzen aus diesem Kurs

33%

erhalten Sie eine Gehaltserhöhung oder Beförderung

Top-Bewertungen

von FZFeb 14th 2019

A great course with very practical assignments to help you learn how to implement RL algorithms. But it also has some stupid quiz questions which makes you feel confusing.

von VOMar 17th 2019

Well Prepared and taught course.. Will highly recommend as the primer for reinforcement learning

Dozenten

Avatar

Pavel Shvechikov

Researcher at HSE and Sberbank AI Lab
HSE Faculty of Computer Science
Avatar

Alexander Panin

Lecturer
HSE Faculty of Computer Science

Über National Research University Higher School of Economics

National Research University - Higher School of Economics (HSE) is one of the top research universities in Russia. Established in 1992 to promote new research and teaching in economics and related disciplines, it now offers programs at all levels of university education across an extraordinary range of fields of study including business, sociology, cultural studies, philosophy, political science, international relations, law, Asian studies, media and communicamathematics, engineering, and more. Learn more on www.hse.ru...

Über die Spezialisierung Erweiterte maschinelles Lernen

This specialization gives an introduction to deep learning, reinforcement learning, natural language understanding, computer vision and Bayesian methods. Top Kaggle machine learning practitioners and CERN scientists will share their experience of solving real-world problems and help you to fill the gaps between theory and practice. Upon completion of 7 courses you will be able to apply modern machine learning methods in enterprise and understand the caveats of real-world data and settings....
Erweiterte maschinelles Lernen

Häufig gestellte Fragen

  • Sobald Sie sich für ein Zertifikat angemeldet haben, haben Sie Zugriff auf alle Videos, Quizspiele und Programmieraufgaben (falls zutreffend). Aufgaben, die von anderen Kursteilnehmern bewertet werden, können erst dann eingereicht und überprüft werden, wenn Ihr Unterricht begonnen hat. Wenn Sie sich den Kurs anschauen möchten, ohne ihn zu kaufen, können Sie womöglich auf bestimmte Aufgaben nicht zugreifen.

  • Wenn Sie sich für den Kurs anmelden, erhalten Sie Zugriff auf alle Kurse der Spezialisierung und Sie erhalten nach Abschluss aller Arbeiten ein Zertifikat. Ihr elektronisches Zertifikat wird zu Ihrer Seite „Errungenschaften“ hinzugefügt – von dort können Sie Ihr Zertifikat ausdrucken oder es zu Ihrem LinkedIn Profil hinzufügen. Wenn Sie nur lesen und den Inhalt des Kurses anzeigen möchten, können Sie kostenlos als Gast an dem Kurs teilnehmen.

Haben Sie weitere Fragen? Besuchen Sie das Hilfe-Center für Teiln..