Es wird ein Beitrag zur Erschließung einer natürlichen Kommunikationsform - der Gestik - für die Interaktion des Menschen mit komplexen rechnerbasierten Systemen anhand eines Ansatzes geleistet, der als Ziel hat, eine instruktionsbasierte Schnittstelle mit Information über Konfigurationen der oberen Gliedmaßen zu versorgen. Über die Formanalyse der Bewegung mittels eines von Benutzerbesonderheiten befreienden Körpermodells werden Merkmale extrahiert, die auf Grund eines hierarchischen Repräsentationssystems zu Symbolen integriert werden können. Dieser Integrationsansatz abstrahiert von der Symbolquelle und kann daher Informationen verschiedener Medien verarbeiten. Diese auf einem hierarchischen Zeitmodell basierende multimodale Integration ist mittels eines Multiagentensystems implementiert, in dem die Agenten entweder als Prozesse oder feiner als nebenläufige Programmflüsse in einem Prozess (threads) realisiert sind und sich selbst aufgabenorientiert konfigurieren. Das Integrationsverfahren wird durch ein Produktionssystem realisiert, was es ermöglicht, dass der Benutzer zur Laufzeit des Systems die Integrationsregeln ändern kann. Es ist kein Training erforderlich. Durch die Trennung von Gestenwissen, Integrationswissen und der Semantikdefinitionen der einzelnen Symbole ist das vorgestellte Rahmensystem applikationsunabhängig für verschiedene Aufgaben parametrisierbar.