In modernen Personenkraftwagen befindet sich eine immer größer werdende Anzahl von Unterhaltungs-, Kommunikations- und Hilfsgeräten, deren Bedienung von der Primäraufgabe des Fahrers ablenkt. Um diese Ansteuerung möglichst komfortabel und sicher zu gestalten, bietet sich der Einsatz einer Spracherkennung an: Gesprochene Anweisungen und akustische Rückmeldungen verhindern, dass der Blick von der Straße und die Hände vom Lenkrad genommen werden müssen. In der Arbeit werden nach Einführung der Grundverfahren zur automatischen Spracherkennung verschiedene Verfahren skizziert, um mit den speziellen, durch die Fahrzeugumgebung bedingten Restriktionen im Bereich der Akustik, aber auch der Hardware umzugehen. Des weiteren wird ein komplettes Dialogsystem zur Ansteuerung einiger Beispielkomponenten entworfen, die in ihrem Funktionsumfang Vertreter für alle im Moment in Hinsicht einer Spracherkennung interessanten Geräte sind: ein mobiles Telephon, ein Radio und ein Navigationssystem. Die wesentlichen Unterschiede der Geräte liegen in der Größe des Vokabulars und seiner Erweiterbarkeit. Während das Lexikon des Navigationssystems fest vorgegeben ist, kann das des Handys durch die Möglichkeit des Aussprechens von Namensschablonen zur Schnellwahl im Betrieb vergrößert werden. Andererseits reichen eine Handvoll Wörter für die Steuerung des Handy aus, die verbale Ansteuerung der Städte und Straßen in einem Navigationssystem dagegen hat einen Wortschatz von 500.000 Wörtern. Die schiere Zahl der Wörter macht die in herkömmlichen Spracherkennungssystemen eingesetzte phonetische Umschrift zu einer langwierigen und arbeitsintensiven Aufgabe, daher liegt ein spezieller Augenmerk der Arbeit in einem leichter realisierbaren, graphematischen Ansatz. Da in der Regel keine perfekte Erkennung garantiert werden kann, ist zusätzlich noch eine statistisch-phonotaktisch restringierte Erkennung von buchstabierten Wörtern realisiert worden. Alle Komponenten sind einzeln evaluiert und anschließend in einem System integriert worden.