|
Modulbezeichnung (engl.):
Deep Learning |
|
Code: E2831 |
|
2V+2P (4 Semesterwochenstunden) |
6 |
Studiensemester: laut Wahlpflichtliste |
Pflichtfach: nein |
Arbeitssprache:
Deutsch |
Prüfungsart:
Projektarbeit (Präsentation und Dokumentation)
[letzte Änderung 28.03.2020]
|
E2831 (P221-0155) Elektro- und Informationstechnik, Master, ASPO 01.04.2019
, Wahlpflichtfach, technisch
KIM-DL (P221-0155) Kommunikationsinformatik, Master, ASPO 01.10.2017
, Wahlpflichtfach, informatikspezifisch
PIM-DL (P221-0155) Praktische Informatik, Master, ASPO 01.10.2017
, 3. Semester, Wahlpflichtfach, informatikspezifisch
|
Die Präsenzzeit dieses Moduls umfasst bei 15 Semesterwochen 60 Veranstaltungsstunden (= 45 Zeitstunden). Der Gesamtumfang des Moduls beträgt bei 6 Creditpoints 180 Stunden (30 Std/ECTS). Daher stehen für die Vor- und Nachbereitung der Veranstaltung zusammen mit der Prüfungsvorbereitung 135 Stunden zur Verfügung.
|
Empfohlene Voraussetzungen (Module):
Keine.
|
Als Vorkenntnis empfohlen für Module:
|
Modulverantwortung:
Prof. Dr. Klaus Berberich |
Dozent/innen: Prof. Dr. Klaus Berberich
[letzte Änderung 07.04.2020]
|
Lernziele:
Students know about fundamental of deep neural networks and how they can be used to address various tasks in different domains (e.g., Natural Language Processing and Computer Vision). Students obtain a solid understanding of the theoretical underpinnings of deep neural networks such as optimization algorithms for learning parameters (e.g., variants of gradient descent) and activation functions (e.g., sigmoid, tanh, and ReLU). Given a specific task, students can put together a suitable neural network architecture (e.g., a CNN or RNN) and implement it using a standard framework (e.g., TensorFlow with Keras). Furthermore, students are aware of typical issues that can arise when training neural networks (e.g., overfitting) and know how to counteract them. [OE+0+0+0+0+0+0=0]
[letzte Änderung 01.04.2020]
|
Inhalt:
1. Introduction 2. Fundamentals of Machine Learning 3. Feed-Forward Neural Networks 4. Convolutional Neural Networks 5. Recurrent Neural Networks 6. Representation Learning 7. Generative Deep Learning 8. Outlook
[letzte Änderung 01.04.2020]
|
Literatur:
F. Chollet: Deep Learning with Python, Manning, 2018 I. Goodfellow, Y. Bengio, and A. Courville: Deep Learning, MIT Press 2016 https://www.deeplearningbook.org M. Nielsen: Neural Networks and Deep Learning, Online, 2019 http://neuralnetworksanddeeplearning.com A. Gulli, A. Kapoor, and S. Pal: Deep Learning with TensorFlow 2 and Keras, Packt Publishing, 2019 H. Lane, C. Howard, and H. M. Hapke: Natural Language Processing in Action, Manning, 2019 S. Raschka and V. Mirjalili: Python Machine Learning, Packt Publishing, 2019 A. Burkov: The Hundred-Page Machine Learning Book, self published, 2019 http://themlbook.com
[letzte Änderung 01.04.2020]
|