de
en
Schliessen
Detailsuche
Bibliotheken
Projekt
Impressum
Datenschutz
zum Inhalt
Detailsuche
Schnellsuche:
OK
Ergebnisliste
Titel
Titel
Inhalt
Inhalt
Seite
Seite
Im Dokument suchen
Ciechanowicz, Philipp: Datenparallele algorithmische Skelette : Erweiterungen und Anwendungen der Münster Skelettbibliothek Muesli. 2010
Inhalt
Inhaltsverzeichnis
Abbildungsverzeichnis
Tabellenverzeichnis
Listingsverzeichnis
Abkürzungsverzeichnis
Symbolverzeichnis
Einführung
Algorithmische Skelette
Zielsetzungen
Aufbau der Arbeit
Grundlagen der parallelen Programmierung
Einleitung
Klassifikation von Parallelrechnern
Rechnerarchitekturen
Single instruction, single data
Single instruction, multiple data
Multiple instruction, single data
Multiple instruction, multiple data
Speicherarchitekturen
Gemeinsamer Speicher
Verteilter Speicher
Hybrider Speicher
Das Message Passing Interface MPI
Konzepte
Prozesse
Puffer
Datentypen
Gruppen
Kommunikatoren
Fehlercodes und Fehlerklassen
Paarweise Kommunikationsfunktionen
Kollektive Kommunikationsfunktionen
MPI_Bcast
MPI_Gather
MPI_Allgather
MPI_Reduce
MPI_Allreduce
Die Open Multi-Processing API OpenMP
Konzepte
Threads
Inkrementelle Parallelisierung
Fork-Join-Prinzip
Direktiven
parallel
for
critical
Klauseln
private
reduction
schedule
Laufzeitbibliothek
omp_get_max_threads
omp_get_thread_num
omp_set_num_threads
Effiziente Parallelisierung
Laufzeitmessung
Stand der Forschung
ASSIST
Calcium
CO2P3S
DatTeL
Eden
eSkel
FastFlow
HDC
HOC-SA
JaSkel und YaSkel
Lithium
MALLBA
muskel
P3L
PAS, SuperPAS und EPAS
QUAFF
SBASCO
SCL
Skandium
SKElib
SkeTo
SkIE
Skil
SKIPPER
Fazit
Die Münster Skelettbibliothek Muesli
Einleitung
Grundlagen
Parallelisierung durch Partitionierung
Parametrischer Polymorphismus
Funktionen höherer Ordnung
Partielle Applikation und Currying
Serialisierung
Verteilte Datenstrukturen
DistributedArray
DistributedMatrix
DistributedSparseMatrix
Datenparallele Skelette
count
fold
map
permute
zip
Erweiterungen
Unterstützung von Mehrkernprozessoren
Die OpenMP-Abstraktionsschicht OAL
Kollektive, serialisierte Kommunikationsfunktionen
broadcast
allgather
allreduce
Diverses
DistributedDataStructure
Header- und Quelldateien
Muesli
Serialisierung
Ergebnisse
Fazit
Eine verteilte Datenstruktur für dünnbesetzte Matrizen
Einleitung
Konzepte
Lastverteilung
Kompression
Parametrischer Polymorphismus
Implementierung
Distribution
BlockDistribution
ColumnDistribution
RoundRobinDistribution
RowDistribution
Submatrix
CrsSubmatrix
BsrSubmatrix
RowProxy
DistributedSparseMatrix
Verteilung
Submatrizen
Indexoperator
Konstruktoren
Datenparallele Skelette
count
combine
map
fold
zip
Ergebnisse
Fazit
Medizinische Bildrekonstruktion mit LMOSEM
Einleitung
Grundlagen
Erfassung der Rohdaten
Der LMOSEM-Algorithmus
Dekompositionsstrategien
Implementierungen
Sequenziell
Taskparallel
Datenparallel (ISD)
Datenparallel (PSD)
MPI und OpenMP
MPI und TBB
Ergebnisse
Fazit
Paralleles Training für neuronale ART2-Netze
Einleitung
Grundlagen
Künstliche neuronale Netze
Arbeitsweise
Vernetzungsstruktur
Lernverfahren
Adaptive Resonanztheorie
ART2-Netze
Paralleler Algorithmus
Implementierungen
Ergebnisse
Fazit
Schlussbetrachtungen
Zusammenfassung
Ausblick
C++0x und OpenMP 3.0
Kollektive, serialisierte Kommunikationsfunktionen für Mehrkernprozessoren
Taskparallele Skelette für Mehrkernprozessoren
GPGPU und OpenCL
Neuimplementierung von Muesli mit Java
Schlussfazit
Hilfsklassen
EventPacket
Image
Integer
MatrixIndex
Literaturverzeichnis
Index