Supercomputer, mit denen große Simulationen zu bewältigen sind, verwenden heute in der Regel verteilte Ressourcen, um die enorme Rechenkapazität zur Verfügung zu stellen. Um diese nutzen zu können bedarf es der parallelen Programmierung mit verteiltem Memory. Im Hochleistungsrechnen hat sich hier das Message Passing Interface (MPI) als das Standardverfahren entwickelt mit dem diese Programmierung realisiert werden kann.
In dieser Übung werden die Grundlagen der Programmierung mit MPI durch das schreiben paralleler Anwendungen und deren Ausführung auf dem Horus Cluster der Universität vermittelt.
- Dozent/in: Harald Klimach