Über diesen Kurs

77,198 kürzliche Aufrufe
Zertifikat zur Vorlage
Erhalten Sie nach Abschluss ein Zertifikat
100 % online
Beginnen Sie sofort und lernen Sie in Ihrem eigenen Tempo.
Flexible Fristen
Setzen Sie Fristen gemäß Ihrem Zeitplan zurück.
Stufe „Fortgeschritten“

This is an advanced course, intended for learners with a background in computer vision and deep learning.

Ca. 31 Stunden zum Abschließen
Englisch
Untertitel: Englisch

Was Sie lernen werden

  • Work with the pinhole camera model, and perform intrinsic and extrinsic camera calibration

  • Detect, describe and match image features and design your own convolutional neural networks

  • Apply these methods to visual odometry, object detection and tracking

  • Apply semantic segmentation for drivable surface estimation

Zertifikat zur Vorlage
Erhalten Sie nach Abschluss ein Zertifikat
100 % online
Beginnen Sie sofort und lernen Sie in Ihrem eigenen Tempo.
Flexible Fristen
Setzen Sie Fristen gemäß Ihrem Zeitplan zurück.
Stufe „Fortgeschritten“

This is an advanced course, intended for learners with a background in computer vision and deep learning.

Ca. 31 Stunden zum Abschließen
Englisch
Untertitel: Englisch

von

University of Toronto-Logo

University of Toronto

Lehrplan - Was Sie in diesem Kurs lernen werden

Woche
1

Woche 1

2 Stunden zum Abschließen

Welcome to Course 3: Visual Perception for Self-Driving Cars

2 Stunden zum Abschließen
4 Videos (Gesamt 18 min), 4 Lektüren
4 Videos
Welcome to the course4m
Meet the Instructor, Steven Waslander5m
Meet the Instructor, Jonathan Kelly2m
4 Lektüren
Course Prerequisites15m
How to Use Discussion Forums15m
How to Use Supplementary Readings in This Course15m
Recommended Textbooks15m
7 Stunden zum Abschließen

Module 1: Basics of 3D Computer Vision

7 Stunden zum Abschließen
6 Videos (Gesamt 43 min), 4 Lektüren, 2 Quiz
6 Videos
Lesson 1 Part 2: Camera Projective Geometry8m
Lesson 2: Camera Calibration7m
Lesson 3 Part 1: Visual Depth Perception - Stereopsis7m
Lesson 3 Part 2: Visual Depth Perception - Computing the Disparity5m
Lesson 4: Image Filtering7m
4 Lektüren
Supplementary Reading: The Camera Sensor30m
Supplementary Reading: Camera Calibration15m
Supplementary Reading: Visual Depth Perception30m
Supplementary Reading: Image Filtering15m
1 praktische Übung
Module 1 Graded Quiz30m
Woche
2

Woche 2

7 Stunden zum Abschließen

Module 2: Visual Features - Detection, Description and Matching

7 Stunden zum Abschließen
6 Videos (Gesamt 44 min), 5 Lektüren, 1 Quiz
6 Videos
Lesson 2: Feature Descriptors6m
Lesson 3 Part 1: Feature Matching7m
Lesson 3 Part 2: Feature Matching: Handling Ambiguity in Matching5m
Lesson 4: Outlier Rejection8m
Lesson 5: Visual Odometry9m
5 Lektüren
Supplementary Reading: Feature Detectors and Descriptors30m
Supplementary Reading: Feature Matching15m
Supplementary Reading: Feature Matching15m
Supplementary Reading: Outlier Rejection15m
Supplementary Reading: Visual Odometry10m
Woche
3

Woche 3

3 Stunden zum Abschließen

Module 3: Feedforward Neural Networks

3 Stunden zum Abschließen
6 Videos (Gesamt 58 min), 6 Lektüren, 1 Quiz
6 Videos
Lesson 2: Output Layers and Loss Functions10m
Lesson 3: Neural Network Training with Gradient Descent10m
Lesson 4: Data Splits and Neural Network Performance Evaluation8m
Lesson 5: Neural Network Regularization9m
Lesson 6: Convolutional Neural Networks9m
6 Lektüren
Supplementary Reading: Feed-Forward Neural Networks15m
Supplementary Reading: Output Layers and Loss Functions15m
Supplementary Reading: Neural Network Training with Gradient Descent15m
Supplementary Reading: Data Splits and Neural Network Performance Evaluation10m
Supplementary Reading: Neural Network Regularization15m
Supplementary Reading: Convolutional Neural Networks10m
1 praktische Übung
Feed-Forward Neural Networks30m
Woche
4

Woche 4

3 Stunden zum Abschließen

Module 4: 2D Object Detection

3 Stunden zum Abschließen
4 Videos (Gesamt 52 min), 4 Lektüren, 1 Quiz
4 Videos
Lesson 2: 2D Object detection with Convolutional Neural Networks11m
Lesson 3: Training vs. Inference11m
Lesson 4: Using 2D Object Detectors for Self-Driving Cars14m
4 Lektüren
Supplementary Reading: The Object Detection Problem15m
Supplementary Reading: 2D Object detection with Convolutional Neural Networks30m
Supplementary Reading: Training vs. Inference45m
Supplementary Reading: Using 2D Object Detectors for Self-Driving Cars30m
1 praktische Übung
Object Detection For Self-Driving Cars30m

Bewertungen

Top-Bewertungen von VISUAL PERCEPTION FOR SELF-DRIVING CARS

Alle Bewertungen anzeigen

Über den Spezialisierung Selbstfahrende Autos

Be at the forefront of the autonomous driving industry. With market researchers predicting a $42-billion market and more than 20 million self-driving cars on the road by 2025, the next big job boom is right around the corner. This Specialization gives you a comprehensive understanding of state-of-the-art engineering practices used in the self-driving car industry. You'll get to interact with real data sets from an autonomous vehicle (AV)―all through hands-on projects using the open source simulator CARLA. Throughout your courses, you’ll hear from industry experts who work at companies like Oxbotica and Zoox as they share insights about autonomous technology and how that is powering job growth within the field. You’ll learn from a highly realistic driving environment that features 3D pedestrian modelling and environmental conditions. When you complete the Specialization successfully, you’ll be able to build your own self-driving software stack and be ready to apply for jobs in the autonomous vehicle industry. It is recommended that you have some background in linear algebra, probability, statistics, calculus, physics, control theory, and Python programming. You will need these specifications in order to effectively run the CARLA simulator: Windows 7 64-bit (or later) or Ubuntu 16.04 (or later), Quad-core Intel or AMD processor (2.5 GHz or faster), NVIDIA GeForce 470 GTX or AMD Radeon 6870 HD series card or higher, 8 GB RAM, and OpenGL 3 or greater (for Linux computers)....
Selbstfahrende Autos

Häufig gestellte Fragen

  • Der Zugang zu Vorlesungen und Aufgaben hängt von der Art Ihrer Anmeldung ab. Wenn Sie einen Kurs im Gastmodus belegen, können Sie die meisten Kursmaterialien kostenlos einsehen. Um auf benotete Aufgaben zuzugreifen und ein Zertifikat zu erhalten, müssen Sie während oder nach Ihrer Gastphase das Zertifikat erwerben. Wenn Sie die Gastoption nicht sehen:

    • Der Kurs bietet möglicherweise keine Gastoption an. Sie können stattdessen eine kostenlose Testversion ausprobieren oder finanzielle Unterstützung beantragen.
    • Der Kurs kann stattdessen "Vollständiger Kurs ohne Zertifikat" anbieten. Mit dieser Option können Sie alle Kursmaterialien einsehen, die erforderlichen Aufgaben einreichen und eine Endnote erhalten. Dies bedeutet auch, dass Sie kein Zertifikat erwerben können.
  • Wenn Sie sich für den Kurs anmelden, erhalten Sie Zugriff auf alle Kurse der Spezialisierung und Sie erhalten nach Abschluss aller Arbeiten ein Zertifikat. Ihr elektronisches Zertifikat wird zu Ihrer Seite „Errungenschaften“ hinzugefügt – von dort können Sie Ihr Zertifikat ausdrucken oder es zu Ihrem LinkedIn Profil hinzufügen. Wenn Sie nur lesen und den Inhalt des Kurses anzeigen möchten, können Sie kostenlos als Gast an dem Kurs teilnehmen.

  • Wenn Sie ein Abonnement abgeschlossen haben, erhalten Sie eine 7-tägige, kostenlose Testversion, die Sie gebührenfrei wieder kündigen können. Danach gewähren wir keine Rückerstattungen mehr, aber Sie können Ihr Abonnement jederzeit kündigen. Lesen Sie unsere vollständige Rückerstattungsrichtlinie.

  • Ja, Coursera bietet für Kursteilnehmer, die sich die Kursgebühr nicht leisten können, finanzielle Unterstützung an. Bewerben Sie sich dafür, indem Sie auf den Link für finanzielle Unterstützung links unter der Schaltfläche „Anmelden“ klicken. Sie werden zum Ausfüllen eines Antrags aufgefordert und werden bei Genehmigung benachrichtigt. Diesen Schritt müssen Sie für jeden Kurs der Spezialisierung ausführen, auch für das Abschlussprojekt. Mehr erfahren

Haben Sie weitere Fragen? Besuchen Sie das Hilfe-Center für Teiln..