TY - THES AB - In den Zeiten der Globalisierung steigen für die Unternehmen nicht nur die Chancen, sondern auch die Herausforderungen. Der ständig vorhandene Wettbewerb fordert von jedem Unternehmen, seine Produkte und Prozesse kontinuierlich zu verbessern. Differenzieren können sich die Anbieter über eine bessere Qualität der Produkte. Neben der Steigerung der Kundenzufriedenheit führt eine bessere Produktqualität durch höhere Planungssicherheit und geringere Ausschüsse zu reduzierten Kosten und steigert damit die Wettbewerbsfähigkeit des Unternehmens. Insbesondere bei der Herstellung von Produkten für die Automobilzulieferindustrie sind die Qualitätsanforderungen bereits seit langem sehr hoch. Am Beispiel der Halbleiterindustrie wird der Stand der Technik beschrieben. Die heute eingesetzten Werkzeuge und Abläufe dienen nahezu durchgängig der Sicherstellung der hinreichend identischen Reproduktion von einzelnen Prozessschritten, die zuvor als richtig definiert wurden. Insbesondere bei den sehr komplexen Herstellungsprozessen sind die Auswirkungen von Variationen bei einzelnen Prozessschritten auf das Endprodukt häufig nicht klar. In den vergangenen Jahren haben sich viele Unternehmen unterschiedlichster Größe mit Unterstützung von Hochschulen und Instituten mit der Suche nach Lösungen für die Handhabung der sehr großen vorhandenen Datenmengen und Gewinnung von verwertbarer Information aus diesen beschäftigt. Der Fokus der hier vorliegenden Arbeit liegt auf der Suche nach den Ursachen für Abweichungen in einem hochkomplexen Fertigungsumfeld. Aufgrund der Vielzahl der Einflussfaktoren und dem langen Fertigungsdurchlauf führt eine analytische Lösung nicht zum Ziel. Abweichend vom in der Literatur beschriebenen Einsatz von Neuronalen Netzwerken zur Klassifizierung oder Prognose des Verhaltens von komplexen Systemen wird hier ein solches Netzwerk eingesetzt, um die Ursachen für das Systemverhalten zu identifizieren. Ebenfalls neu ist die Reduktion der Datenmenge durch den Einsatz der Feature Selection, wobei das Neuronale Netz jeweils als Validierungsinstanz der Feature Selection genutzt wird. Um keine möglichen Lösungen auszuschließen, wird keinerlei Wissen über die technischen Zusammenhänge für diese Verfahren genutzt. Durch diese Kombination aus datenreduzierendem (Feature Selection) und wissensgenerierendem (Neuronale Netz) Verfahren gelingt es, die für den untersuchten Effekt relevanten Eingangsparameter zu isolieren. Darüber hinaus liefern die Regeln des Neuronalen Netzes Hinweise für die Prozessoptimierung oder Fehlerverhütung. Dieses neu entwickelte Verfahren wurde zunächst erfolgreich mit synthetischen Daten validiert. Anschließend erfolgte der Einsatz des Systems mit Daten aus der Fertigung. Hier konnten überzeugende Ergebnisse erreicht werden. In einem aufgezeigten Beispiel wurde für ein Produkt bei mehr als 1000 Datensätzen aus einer Menge von nahezu 100 Parametern eine kleine Anzahl von Parametern identifiziert, die für den untersuchten unerwünschten Effekt verantwortlich waren. Aktuell befindet sich das System in der Einführung bei einem Halbleiterhersteller. Weitere Unternehmen haben Interesse an dem Verfahren geäußert. Darüber hinaus scheint ein Einsatz des Verfahrens auch in anderen Bereichen der Wirtschaft sinnvoll, insbesondere wenn es sich um Geschäftsprozesse handelt, die sehr hohe Qualitätsanforderungen mit einer guten Dokumentation der durchgeführten Prozesse verbinden. AU - Montino, Ralf DA - 2009 KW - Datenanalyse KW - neuronale Netze KW - zero defect KW - neural networks KW - feature selection LA - ger PY - 2009 TI - Crystal Ball : die Gewinnung von verwertbarer Information aus Datenobjekten mit unscharfem Zusammenhang UR - https://nbn-resolving.org/urn:nbn:de:hbz:467-3965 Y2 - 2024-12-26T22:24:59 ER -