Über diesen Kurs
17,347

100 % online

Beginnen Sie sofort und lernen Sie in Ihrem eigenen Tempo.

Flexible Fristen

Setzen Sie Fristen gemäß Ihrem Zeitplan zurück.

Stufe „Fortgeschritten“

Ca. 23 Stunden zum Abschließen

Englisch

Untertitel: Englisch

Kompetenzen, die Sie erwerben

InferenceGibbs SamplingMarkov Chain Monte Carlo (MCMC)Belief Propagation

100 % online

Beginnen Sie sofort und lernen Sie in Ihrem eigenen Tempo.

Flexible Fristen

Setzen Sie Fristen gemäß Ihrem Zeitplan zurück.

Stufe „Fortgeschritten“

Ca. 23 Stunden zum Abschließen

Englisch

Untertitel: Englisch

Lehrplan - Was Sie in diesem Kurs lernen werden

Woche
1
25 Minuten zum Abschließen

Inference Overview

This module provides a high-level overview of the main types of inference tasks typically encountered in graphical models: conditional probability queries, and finding the most likely assignment (MAP inference)....
2 Videos (Gesamt 25 min)
2 Videos
Overview: MAP Inference9m
1 Stunde zum Abschließen

Variable Elimination

This module presents the simplest algorithm for exact inference in graphical models: variable elimination. We describe the algorithm, and analyze its complexity in terms of properties of the graph structure....
4 Videos (Gesamt 56 min), 1 Quiz
4 Videos
Complexity of Variable Elimination12m
Graph-Based Perspective on Variable Elimination15m
Finding Elimination Orderings11m
1 praktische Übung
Variable Elimination18m
Woche
2
18 Stunden zum Abschließen

Belief Propagation Algorithms

This module describes an alternative view of exact inference in graphical models: that of message passing between clusters each of which encodes a factor over a subset of variables. This framework provides a basis for a variety of exact and approximate inference algorithms. We focus here on the basic framework and on its instantiation in the exact case of clique tree propagation. An optional lesson describes the loopy belief propagation (LBP) algorithm and its properties....
9 Videos (Gesamt 150 min), 3 Quiz
9 Videos
Properties of Cluster Graphs15m
Properties of Belief Propagation9m
Clique Tree Algorithm - Correctness18m
Clique Tree Algorithm - Computation16m
Clique Trees and Independence15m
Clique Trees and VE16m
BP In Practice15m
Loopy BP and Message Decoding21m
2 praktische Übungen
Message Passing in Cluster Graphs10m
Clique Tree Algorithm10m
Woche
3
1 Stunde zum Abschließen

MAP Algorithms

This module describes algorithms for finding the most likely assignment for a distribution encoded as a PGM (a task known as MAP inference). We describe message passing algorithms, which are very similar to the algorithms for computing conditional probabilities, except that we need to also consider how to decode the results to construct a single assignment. In an optional module, we describe a few other algorithms that are able to use very different techniques by exploiting the combinatorial optimization nature of the MAP task....
5 Videos (Gesamt 74 min), 1 Quiz
5 Videos
Finding a MAP Assignment3m
Tractable MAP Problems15m
Dual Decomposition - Intuition17m
Dual Decomposition - Algorithm16m
1 praktische Übung
MAP Message Passing4m
Woche
4
14 Stunden zum Abschließen

Sampling Methods

In this module, we discuss a class of algorithms that uses random sampling to provide approximate answers to conditional probability queries. Most commonly used among these is the class of Markov Chain Monte Carlo (MCMC) algorithms, which includes the simple Gibbs sampling algorithm, as well as a family of methods known as Metropolis-Hastings....
5 Videos (Gesamt 100 min), 3 Quiz
5 Videos
Markov Chain Monte Carlo14m
Using a Markov Chain15m
Gibbs Sampling19m
Metropolis Hastings Algorithm27m
2 praktische Übungen
Sampling Methods14m
Sampling Methods PA Quiz8m
26 Minuten zum Abschließen

Inference in Temporal Models

In this brief lesson, we discuss some of the complexities of applying some of the exact or approximate inference algorithms that we learned earlier in this course to dynamic Bayesian networks....
1 Video (Gesamt 20 min), 1 Quiz
1 praktische Übung
Inference in Temporal Models6m
4.6
54 BewertungenChevron Right

50%

nahm einen neuen Beruf nach Abschluss dieser Kurse auf

33%

ziehen Sie für Ihren Beruf greifbaren Nutzen aus diesem Kurs

33%

erhalten Sie eine Gehaltserhöhung oder Beförderung

Top-Bewertungen

von LLMar 12th 2017

Thanks a lot for professor D.K.'s great course for PGM inference part. Really a very good starting point for PGM model and preparation for learning part.

von YPMay 29th 2017

I learned pretty much from this course. It answered my quandaries from the representation course, and as well deepened my understanding of PGM.

Dozent

Avatar

Daphne Koller

Professor
School of Engineering

Über Stanford University

The Leland Stanford Junior University, commonly referred to as Stanford University or Stanford, is an American private research university located in Stanford, California on an 8,180-acre (3,310 ha) campus near Palo Alto, California, United States....

Über die Spezialisierung Probabilistic Graphical Models

Probabilistic graphical models (PGMs) are a rich framework for encoding probability distributions over complex domains: joint (multivariate) distributions over large numbers of random variables that interact with each other. These representations sit at the intersection of statistics and computer science, relying on concepts from probability theory, graph algorithms, machine learning, and more. They are the basis for the state-of-the-art methods in a wide variety of applications, such as medical diagnosis, image understanding, speech recognition, natural language processing, and many, many more. They are also a foundational tool in formulating many machine learning problems....
Probabilistic Graphical Models

Häufig gestellte Fragen

  • Sobald Sie sich für ein Zertifikat angemeldet haben, haben Sie Zugriff auf alle Videos, Quizspiele und Programmieraufgaben (falls zutreffend). Aufgaben, die von anderen Kursteilnehmern bewertet werden, können erst dann eingereicht und überprüft werden, wenn Ihr Unterricht begonnen hat. Wenn Sie sich den Kurs anschauen möchten, ohne ihn zu kaufen, können Sie womöglich auf bestimmte Aufgaben nicht zugreifen.

  • Wenn Sie sich für den Kurs anmelden, erhalten Sie Zugriff auf alle Kurse der Spezialisierung und Sie erhalten nach Abschluss aller Arbeiten ein Zertifikat. Ihr elektronisches Zertifikat wird zu Ihrer Seite „Errungenschaften“ hinzugefügt – von dort können Sie Ihr Zertifikat ausdrucken oder es zu Ihrem LinkedIn Profil hinzufügen. Wenn Sie nur lesen und den Inhalt des Kurses anzeigen möchten, können Sie kostenlos als Gast an dem Kurs teilnehmen.

  • Execute the basic steps of a variable elimination or message passing algorithm

    Understand how properties of the graph structure influence the complexity of exact inference, and thereby estimate whether exact inference is likely to be feasible

    Go through the basic steps of an MCMC algorithm, both Gibbs sampling and Metropolis Hastings

    Understand how properties of the PGM influence the efficacy of sampling methods, and thereby estimate whether MCMC algorithms are likely to be effective

    Design Metropolis Hastings proposal distributions that are more likely to give good results

    Compute a MAP assignment by exact inference

    Honors track learners will be able to implement message passing algorithms and MCMC algorithms, and apply them to a real world problem

Haben Sie weitere Fragen? Besuchen Sie das Hilfe-Center für Teiln..