Druckansicht
Vorlesung Neuronale Netze
Sommersemester 2013
Neuigkeiten
Die Ergebnisse der Klausur sind nun im HISQIS verfügbar. Einsicht in die Klausuren kann am Dienstag, dem 24. September 2013 von 10 bis 11 Uhr in G29-019 genommen werden.
Übersicht
Allgemeines
Auf dieser Seite finden Sie verschiedene Informationen zu der Vorlesung "Neuronale Netze", die im Sommersemester 2013 von Prof. Dr. Rudolf Kruse an der Otto-von-Guericke-Universität Magdeburg gehalten wird.
Diese Seite wird im Laufe des Semesters aktualisiert.
Inhalte der Vorlesung
(Künstliche) Neuronale Netze werden in vielen Bereichen eingesetzt, z.B. zur Mustererkennung, Klassifikation, Diagnose, Optimierung, Steuerung und in wissensbasierten Systemen.
Die wesentlichen Vorteile (Künstlicher) Neuronaler Netze sind ihre Lernfähigkeit und ihre inhärente Parallelität.
Die Vorlesung führt in die Grundlagen der (Künstlichen) Neuronalen Netze aus der Sicht der Informatik ein.
Lernparadigmen und -algorithmen werden ebenso behandelt wie verschiedene, auf diesen Paradigmen aufsetzende Netzmodelle, z.B. Schwellenwertelemente, mehrschichtige Perzeptren, Radiale-Basisfunktionen-Netze, selbstorganisierende Karten, Hopfield-Netze, rückgekoppelte Netze, Support Vector Machines und Neuro-Fuzzy-Systeme.
Termine und Räume
| Dozent | Wochentag | Zeit | Raum | Datum | Bemerkung |
Vorlesung | Prof. R. Kruse | donnerstags | 09:15 - 10:45 Uhr | G29-307 | ab 11.04.2013 | |
Übung | C. Moewes | montags | 13:15 - 14:45 Uhr | G22A-218 | ab 08.04.2013 | |
Übung | C. Moewes | montags | 15:15 - 16:45 Uhr | G23-K11 | ab 08.04.2013 | |
Übung | C. Moewes | donnerstags | 13:15 - 14:45 Uhr | G05-211 | ab 18.04.2013 | nur für PNK-Studierende |
Die schriftliche Prüfung findet am Mittwoch, dem 17. Juli 2013 in der Zeit von 8:00 bis 10:00 Uhr s.t. in G29-307 statt.
Wir bitten darum, mindestens 10 Minuten vor der eigentlichen Prüfung zu erscheinen.
Zugelassenes Hilfsmittel, das mitgebracht werden darf, ist ein nichtprogrammierbarer Taschenrechner.
Schreibpapier wird gestellt.
Mitzubringen sind lediglich
- ein Lichtbildausweis (Personalausweis oder Studierendenausweis mit Foto),
- Schreibmaterial (Stifte/Füller, die entweder blau oder schwarz schreiben).
Auch Studierende, die einen Leistungsnachweis in Form eines (un)benoteten Scheins benötigen, müssen an dieser Prüfung teilnehmen.
Nach der Klausur wird auf dieser Webseite dann auch bekanntgegeben, an welchem Tag Studierenden die Einsicht in die Klausuren gestattet ist.
Dozenten
Wenn Sie Fragen zur Vorlesung oder zu den Übungen haben, wenden Sie sich bitte (wenn möglich, per E-mail) an:
Schein- und Prüfungskriterien
Ein neues Aufgabenblatt mit schriftlichen Aufgaben und Programmieraufgaben wird jede Woche auf dieser Internetseite veröffentlicht.
Die schriftlichen Aufgaben müssen am Beginn einer jeden Übung votiert werden.
Durch das Votieren erklärt man sich bereit, dass man in der Lage ist, die Aufgabe und einen Lösungsvorschlag zu erklären und präsentieren.
(Der Vorschlag muss nicht vollständig richtig sein.
Es muss allerdings klar werden, dass man sich gewissenhaft mit der Aufgabe auseinandergesetzt hat.)
Studierende, die den Kurs mit einer Prüfung oder einem benoteten Schein beenden wollen, müssen
- regelmäßig und gut in den Übungen mitarbeiten,
- mindestens die Hälfte der schriftlichen Aufgaben votieren,
- mindestens zweimal eine Lösung zu einer schriftlichen Aufgabe während der Übung präsentieren,
- schließlich eine schriftliche Prüfung nach dem Kurs bestehen.
Das Bestehen der schriftlichen Prüfung ermöglicht ebenfalls den Erhalt eines unbenoteten Scheines falls ein solcher von einer/einem Studierenden anstatt der Prüfung erwünscht wird.
Studierende der Philosophie-Neurowissenschaften-Kognition, die den Kurs mit einer Prüfung oder einem benoteten Schein beenden wollen, müssen zusätzlich zum oben erwähntem Pensum
- bei mehr als 5 Studierenden: aktiv an einer zusätzlichen Übung teilnehmen,
- bei 5 oder weniger Studierenden: eine Semesteraufgabe bearbeiten. Hierbei muss jeder Studierende eine anspruchsvolle, praxisbezogene Aufgabe bearbeiten. Dazu gehören Literaturrecherche, Zwischenpräsentation, Programmieren, Evaluieren und Dokumentieren (inkl. einer schriftlichen Ausarbeitung) sowie einem Abschlussvortrag.
Während die Übung in diesem Semester besucht werden muss, kann die Semesteraufgabe auch im darauf folgenden Semester bearbeitet werden.
Voraussetzungen
Sie müssen nicht, aber Sie sollten Hintergrundwissen verfügen über
- Algorithmen und Datenstrukturen,
- Programmierung und Modellierung,
- Mathematik I bis IV.
Folien aus der Vorlesung
Die Folien der Vorlesung werden rechtzeitig hochgeladen so wie der Kurs fortschreitet.
Übungsblätter
Die Sammlung von Übungsblättern wird hier wöchentlich erweitert.
- 15. KW: 01. Übungsblatt zum 08.04.2013 (grundlegende Mathematik)
- 16. KW: 02. Übungsblatt zum 15.04.2013 (Schwellenwertelemente)
- 17. KW: 03. Übungsblatt zum 22.04.2013 (Netze und Training von Schwellenwertelementen)
- 18. KW: 04. Übungsblatt zum 29.04.2013 (Aktualisierungsreihenfolge, Funktionsapproximation)
- 19. KW: 05. Übungsblatt zum 06.05.2013 (Methode der kleinsten Quadrate, Logistische Regression)
- 20. KW: 06. Übungsblatt zum 13.05.2013 (Aktivierungsfunktionen, Gradientenabstieg, Fehlerrückpropagation)
- 21. KW: Lehrveranstaltungsausfall am 20.05.2013 aufgrund von Pfingsmontag
- 22. KW: 07. Übungsblatt zum 27.05.2013 (Radiale-Basisfunktionen-Netze, Funktionsapproximation) neue Version vom 13.05.2013
- 23. KW: 08. Übungsblatt zum 03.06.2013 (Fehlerrückpropagation, Radiale-Basisfunktionen-Netze)
- 24. KW: Lehrveranstaltungsausfall am 10.06.2013 aufgrund der Hochwassersituation und der Anordnung des Rektors.
- 25. KW: 09. Übungsblatt zum 17.06.2013 (Wettbewerbslernen / Lernende Vektorquantisierung, Selbstorganisierende Karten)
- 26. KW: 10. Übungsblatt zum 24.06.2013 (Hopfield-Netze)
- 27. KW: 11. Übungsblatt zum 01.07.2013 (VC-Dimension, Optimale Hyperebene, Kernel-Trick, Support-Vektor-Maschine)
- 28. KW: 12. Übungsblatt zum 08.07.2013 (Laborübung, zusätzliche Infos zum SNNS )
Zusätzliche Unterlagen
An dieser Stelle finden Sie zusätzliche Unterlagen zur Vorlesung und zu den Übungen.
Literatur
- R. Kruse, C. Borgelt, F. Klawonn, C. Moewes, M. Steinbrecher und P. Held. (2013). Computational Intelligence: A Methodological Introduction. Springer-Verlag, Berlin/Heidelberg. (Buch bei Springer, Buch bei amazon.de)
- R. Kruse, C. Borgelt, F. Klawonn, C. Moewes, G. Ruß und M. Steinbrecher (2011). Computational Intelligence: Eine methodische Einführung in Künstliche Neuronale Netze, Evolutionäre Algorithmen, Fuzzy-Systeme und Bayes-Netze. Vieweg+Teubner-Verlag, Wiesbaden. (Buch bei Vieweg+Teubner, Buch bei amazon.de)
- D. Nauck, C. Borgelt, F. Klawonn und R. Kruse (2003). Neuro-Fuzzy-Systeme: Von den Grundlagen Neuronaler Netze zu modernen Fuzzy-Systemen. 3. Aufl., Vieweg-Verlag, Wiesbaden. (Buch bei amazon.de)
- R. Rojas (1993). Theorie der neuronalen Netze: Eine systematische Einführung. Springer, Berlin.
- A. Zell (1994). Simulation neuronaler Netze. Addison-Wesley, Bonn.
- S. Haykin (1994). Neural Networks: A Comprehensive Foundation. Prentice-Hall, Upper Saddle River, NJ, USA.
- FAQ der Newsgroup comp.ai.neural-nets: ftp://ftp.sas.com/pub/neural/FAQ.html
- D. Kriesel (2007). Ein kleiner Überblick über Neuronale Netze. Erhältlich auf http://www.dkriesel.com.
Support Vector Machines und Kernel Methods:
- N. Cristianini und J. Shawe-Taylor (2000). An Introduction to Support Vector Machines. Cambridge University Press, Cambridge, UK. (führt kurz und gut in die Theorie und Optimierungsalgorithmen der SVMs ein, beschreibt weitere Kernel-Methoden, diskutiert praktische Anwendungen, ideal für Anfänger)
- J. Shawe-Taylor und N. Cristianini (2004). Kernel Methods for Pattern Analysis. Cambridge University Press, Cambridge, UK. (Fokus dieses Buches der selben Autoren: Kernel-Methoden, Anwendung des Kernel-Tricks und deren Implementierung, nichts für Laien)
- B. Schölkopf und A. J. Smola (2002). Learning with Kernels. MIT Press, Cambridge, MA, USA. (Die Bibel der Kernel-Methoden, teilweise auch als Einstieg nützlich)
Statistische Lerntheorie:
- T. Hastie, R. Tibshirani und J. Friedman (2009). The Elements of Statistical Learning: Data Mining, Inference, and Prediction. 2. Aufl., Springer, New York City, NY, USA. (diskutiert eine sehr große Bandbreite an Statistischen Lernmethoden, Übungsaufgaben inklusive, ideal für verschiedenste Vorlesungen in den Bereichen Data Mining, Machine Learning und Intelligent Data Analysis, Buch frei als PDF von der Website erhältlich)
Spiking Neural Networks:
- W. Gerstner und W. Kistler (2002). Spiking Neuron Models. Cambridge University Press, Cambridge, UK. (sehr gute Einführung in die Modellierung und Analyse von Spiking Neural Networks)
Verweise auf andere Webseiten