Computational-Intelligence

News-Archiv

Druckansicht

Vorlesung Neuronale Netze

Sommersemester 2013

Neuigkeiten

Die Ergebnisse der Klausur sind nun im HISQIS verfügbar. Einsicht in die Klausuren kann am Dienstag, dem 24. September 2013 von 10 bis 11 Uhr in G29-019 genommen werden.

Übersicht

zurück zum Seitenanfang

Allgemeines

Auf dieser Seite finden Sie verschiedene Informationen zu der Vorlesung "Neuronale Netze", die im Sommersemester 2013 von Prof. Dr. Rudolf Kruse an der Otto-von-Guericke-Universität Magdeburg gehalten wird. Diese Seite wird im Laufe des Semesters aktualisiert.

Inhalte der Vorlesung

(Künstliche) Neuronale Netze werden in vielen Bereichen eingesetzt, z.B. zur Mustererkennung, Klassifikation, Diagnose, Optimierung, Steuerung und in wissensbasierten Systemen. Die wesentlichen Vorteile (Künstlicher) Neuronaler Netze sind ihre Lernfähigkeit und ihre inhärente Parallelität. Die Vorlesung führt in die Grundlagen der (Künstlichen) Neuronalen Netze aus der Sicht der Informatik ein. Lernparadigmen und -algorithmen werden ebenso behandelt wie verschiedene, auf diesen Paradigmen aufsetzende Netzmodelle, z.B. Schwellenwertelemente, mehrschichtige Perzeptren, Radiale-Basisfunktionen-Netze, selbstorganisierende Karten, Hopfield-Netze, rückgekoppelte Netze, Support Vector Machines und Neuro-Fuzzy-Systeme.

zurück zum Seitenanfang

Termine und Räume

 DozentWochentagZeitRaumDatumBemerkung
VorlesungProf. R. Krusedonnerstags09:15 - 10:45 UhrG29-307ab 11.04.2013 
ÜbungC. Moewesmontags13:15 - 14:45 UhrG22A-218ab 08.04.2013 
ÜbungC. Moewesmontags15:15 - 16:45 UhrG23-K11ab 08.04.2013 
ÜbungC. Moewesdonnerstags13:15 - 14:45 UhrG05-211ab 18.04.2013nur für PNK-Studierende

Die schriftliche Prüfung findet am Mittwoch, dem 17. Juli 2013 in der Zeit von 8:00 bis 10:00 Uhr s.t. in G29-307 statt. Wir bitten darum, mindestens 10 Minuten vor der eigentlichen Prüfung zu erscheinen. Zugelassenes Hilfsmittel, das mitgebracht werden darf, ist ein nichtprogrammierbarer Taschenrechner. Schreibpapier wird gestellt. Mitzubringen sind lediglich

  • ein Lichtbildausweis (Personalausweis oder Studierendenausweis mit Foto),
  • Schreibmaterial (Stifte/Füller, die entweder blau oder schwarz schreiben).

Auch Studierende, die einen Leistungsnachweis in Form eines (un)benoteten Scheins benötigen, müssen an dieser Prüfung teilnehmen. Nach der Klausur wird auf dieser Webseite dann auch bekanntgegeben, an welchem Tag Studierenden die Einsicht in die Klausuren gestattet ist.

zurück zum Seitenanfang

Dozenten

Wenn Sie Fragen zur Vorlesung oder zu den Übungen haben, wenden Sie sich bitte (wenn möglich, per E-mail) an:

zurück zum Seitenanfang

Schein- und Prüfungskriterien

Ein neues Aufgabenblatt mit schriftlichen Aufgaben und Programmieraufgaben wird jede Woche auf dieser Internetseite veröffentlicht. Die schriftlichen Aufgaben müssen am Beginn einer jeden Übung votiert werden. Durch das Votieren erklärt man sich bereit, dass man in der Lage ist, die Aufgabe und einen Lösungsvorschlag zu erklären und präsentieren. (Der Vorschlag muss nicht vollständig richtig sein. Es muss allerdings klar werden, dass man sich gewissenhaft mit der Aufgabe auseinandergesetzt hat.)

Studierende, die den Kurs mit einer Prüfung oder einem benoteten Schein beenden wollen, müssen

  • regelmäßig und gut in den Übungen mitarbeiten,
  • mindestens die Hälfte der schriftlichen Aufgaben votieren,
  • mindestens zweimal eine Lösung zu einer schriftlichen Aufgabe während der Übung präsentieren,
  • schließlich eine schriftliche Prüfung nach dem Kurs bestehen.

Das Bestehen der schriftlichen Prüfung ermöglicht ebenfalls den Erhalt eines unbenoteten Scheines falls ein solcher von einer/einem Studierenden anstatt der Prüfung erwünscht wird.

Studierende der Philosophie-Neurowissenschaften-Kognition, die den Kurs mit einer Prüfung oder einem benoteten Schein beenden wollen, müssen zusätzlich zum oben erwähntem Pensum

  • bei mehr als 5 Studierenden: aktiv an einer zusätzlichen Übung teilnehmen,
  • bei 5 oder weniger Studierenden: eine Semesteraufgabe bearbeiten. Hierbei muss jeder Studierende eine anspruchsvolle, praxisbezogene Aufgabe bearbeiten. Dazu gehören Literaturrecherche, Zwischenpräsentation, Programmieren, Evaluieren und Dokumentieren (inkl. einer schriftlichen Ausarbeitung) sowie einem Abschlussvortrag.

Während die Übung in diesem Semester besucht werden muss, kann die Semesteraufgabe auch im darauf folgenden Semester bearbeitet werden.

zurück zum Seitenanfang

Voraussetzungen

Sie müssen nicht, aber Sie sollten Hintergrundwissen verfügen über

  • Algorithmen und Datenstrukturen,
  • Programmierung und Modellierung,
  • Mathematik I bis IV.
zurück zum Seitenanfang

Folien aus der Vorlesung

Die Folien der Vorlesung werden rechtzeitig hochgeladen so wie der Kurs fortschreitet.

zurück zum Seitenanfang

Übungsblätter

Die Sammlung von Übungsblättern wird hier wöchentlich erweitert.

  • 15. KW: 01. Übungsblatt zum 08.04.2013 (grundlegende Mathematik)
  • 16. KW: 02. Übungsblatt zum 15.04.2013 (Schwellenwertelemente)
  • 17. KW: 03. Übungsblatt zum 22.04.2013 (Netze und Training von Schwellenwertelementen)
  • 18. KW: 04. Übungsblatt zum 29.04.2013 (Aktualisierungsreihenfolge, Funktionsapproximation)
  • 19. KW: 05. Übungsblatt zum 06.05.2013 (Methode der kleinsten Quadrate, Logistische Regression)
  • 20. KW: 06. Übungsblatt zum 13.05.2013 (Aktivierungsfunktionen, Gradientenabstieg, Fehlerrückpropagation)
  • 21. KW: Lehrveranstaltungsausfall am 20.05.2013 aufgrund von Pfingsmontag
  • 22. KW: 07. Übungsblatt zum 27.05.2013 (Radiale-Basisfunktionen-Netze, Funktionsapproximation) neue Version vom 13.05.2013
  • 23. KW: 08. Übungsblatt zum 03.06.2013 (Fehlerrückpropagation, Radiale-Basisfunktionen-Netze)
  • 24. KW: Lehrveranstaltungsausfall am 10.06.2013 aufgrund der Hochwassersituation und der Anordnung des Rektors.
  • 25. KW: 09. Übungsblatt zum 17.06.2013 (Wettbewerbslernen / Lernende Vektorquantisierung, Selbstorganisierende Karten)
  • 26. KW: 10. Übungsblatt zum 24.06.2013 (Hopfield-Netze)
  • 27. KW: 11. Übungsblatt zum 01.07.2013 (VC-Dimension, Optimale Hyperebene, Kernel-Trick, Support-Vektor-Maschine)
  • 28. KW: 12. Übungsblatt zum 08.07.2013 (Laborübung, zusätzliche Infos zum SNNS )
zurück zum Seitenanfang

Zusätzliche Unterlagen

An dieser Stelle finden Sie zusätzliche Unterlagen zur Vorlesung und zu den Übungen.

zurück zum Seitenanfang

Literatur

Support Vector Machines und Kernel Methods:

  • N. Cristianini und J. Shawe-Taylor (2000). An Introduction to Support Vector Machines. Cambridge University Press, Cambridge, UK. (führt kurz und gut in die Theorie und Optimierungsalgorithmen der SVMs ein, beschreibt weitere Kernel-Methoden, diskutiert praktische Anwendungen, ideal für Anfänger)
  • J. Shawe-Taylor und N. Cristianini (2004). Kernel Methods for Pattern Analysis. Cambridge University Press, Cambridge, UK. (Fokus dieses Buches der selben Autoren: Kernel-Methoden, Anwendung des Kernel-Tricks und deren Implementierung, nichts für Laien)
  • B. Schölkopf und A. J. Smola (2002). Learning with Kernels. MIT Press, Cambridge, MA, USA. (Die Bibel der Kernel-Methoden, teilweise auch als Einstieg nützlich)

Statistische Lerntheorie:

  • T. Hastie, R. Tibshirani und J. Friedman (2009). The Elements of Statistical Learning: Data Mining, Inference, and Prediction. 2. Aufl., Springer, New York City, NY, USA. (diskutiert eine sehr große Bandbreite an Statistischen Lernmethoden, Übungsaufgaben inklusive, ideal für verschiedenste Vorlesungen in den Bereichen Data Mining, Machine Learning und Intelligent Data Analysis, Buch frei als PDF von der Website erhältlich)

Spiking Neural Networks:

  • W. Gerstner und W. Kistler (2002). Spiking Neuron Models. Cambridge University Press, Cambridge, UK. (sehr gute Einführung in die Modellierung und Analyse von Spiking Neural Networks)
zurück zum Seitenanfang

Verweise auf andere Webseiten

zurück zum Seitenanfang
en lang icon de lang icon Printable View - Recent Changes
Page last modified on September 02, 2013, at 10:27 AM by cmoewes