Lebenszyklus KI

Lebenszyklus der Künstlichen Intelligenz

Verständnis für den Problembereich

  • Charakterisierung der KI-Anwendung

    Was soll die Aufgabe der Anwendung sein? 

    Zunächst ist es wichtig, ein Verständnis zu erlangen, welche Aufgaben im Unternehmen oder dem Endprodukt durch den Einsatz von einer KI-Anwendung optimiert werden können. Geht es um ein besseres Produktionsergebnis, weniger Müll, höhere Sicherheit für Mitarbeitende, Verschlankung von Prozessen oder schlicht wirtschaftlicher Vorteil? 


    Welche Art von KI-Anwendungen ist zur Bewältigung dieser Aufgabe notwendig? 

    Grob unterschieden werden: Systeme, welche Menschen unterstützen, Systeme, mit denen Menschen zusammenarbeiten und Systeme, die weitestgehend unabhängig vom Menschen arbeiten. 

    Für alle bedarf es einer Ermittlung der Endnutzenden, die mit dem KI-basierten System interagieren sollen, so wie die ‚high-level‘-Definition der Aufgaben, die von System und Nutzenden erbracht werden sollen. Weiterhin müssen Nutzungsszenarien, Beschränkungen und Risiken initial definiert und dokumentiert werden. Diese Charakterisierung der Anwendung liefert die notwendigen Informationen für die Zuordnung einer Risikoklasse.


  • Menschliche Faktoren

    Wie interagieren Menschen mit der Anwendung?

    KI-Systeme stehen in verschiedenen Weisen mit den Menschen, die sie nutzen, in Kontakt. Um diese Interaktion fruchtbar zu machen, müssen diese Schnittstellen identifiziert und die Anwendung auf die menschlichen Faktoren angepasst werden. 

    So muss es beispielsweise gewährleistet sein, dass die menschlichen Endnutzenden verständliche, verlässliche und relevante Informationen, in angemessener Detailtiefe und zum richtigen Zeitpunkt erhalten. Dies kann unter Berücksichtigung von menschlicher Reaktionszeit, kognitiver Kapazität und Wahrnehmungsspektrum ermöglicht werden.


    Hierzu können Sie bei der Technischen Hochschule Augsburg folgendes Bildungsformat besuchen: Die Zukunft intelligent gestalten.


  • Sicherheit, Gefahrlosigkeit und ethische Aspekte

    Wie muss die Anwendung geschützt werden? 

    Da KI-Anwendungen Handlungen oder Vorhersagen aufgrund von Daten treffen, sind sie besonders vulnerabel für Cyberangriffe. Daher ist es wichtig, den Zugriff von Unbefugten auf das System oder die verwendeten Daten zu verhindern. 

    Um die Robustheit gegenüber weiteren Störungen zu gewährleisten, gilt es in der Design-Phase Szenarien des Systemversagens zu modellieren, die Architekturentscheidungen dahingehend anzupassen und das verbleibende Risiko zu thematisieren. 


    Wie müssen die Nutzenden geschützt werden? 

    Ob die KI-Anwendung im Betrieb zum Einsatz kommt oder an Endnutzende verkauft wird - die Anwendung muss sicherstellen, dass sie keine Gefahr für die körperliche, und mentale Unversehrtheit der Menschen, die Sie verwenden, darstellt. Dies muss gewährleistet sein, wenn die Anwendung plangemäß funktioniert und wenn Fehler im System auftreten. 


    Welche ethischen Probleme ergeben sich?  

    Zu weiteren ethischen Aspekten gehört es, sicherzustellen, dass menschliche Autonomie gewahrt wird (Vermeidung von Übervertrauen, Abhängigkeit und der Stimulation von Suchtverhalten), sowie die potenziellen negativen Auswirkungen des KI-basierten Systems auf die Umwelt mitzudenken (Umweltverträglichkeitsanalyse, Kriterien nachhaltige Softwareentwicklung). Um Diskriminierung zu verhindern, bedarf es Verfahren, welche die Entstehung oder Verstärkung von Vorurteilen durch Einsatz einer KI-Anwendung kenntlich machen. Durch deren Korrektur, wird Fariness gefördert und der Diversiät der Gesellschaft Rechnung getragen.


    Eine Checkliste für die Vertrauenswürdigkeit Ihrer KI-Anwendung der EU Kommission finden Sie unter folgendem link: 

    https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=68342


  • Anforderungsmanagement

    Was wird benötigt, um die KI-Komponente zu entwickeln? 

    Der Anforderungsmanagementprozess umfasst die Erstellung einer vollständigen Liste von Vorrausetzungen und Ressourcen, die für den Entwurf der KI-Komponente benötigt werden. Dieser umfasst die anfängliche Zusammenstellung der Anforderungen, die Festlegung der Architektur der KI-Komponente und ggf. Ihrer Sub-Komponenten sowie die Validierung der Anforderungen.


    In diesem Bereich bietet Fraunhofer IGCV folgende Bildungsfromate an: KI industrielle Praxis sowie KI-Level-Check


    Für weitere Infos und Teilnahme wenden Sie sich an Dr.-Ing. Martin Feistle. 


        Tel: +49 821 90678-158

        E-Mail: Martin.Feistle[at]igcv.fraunhofer.de

Daten

  • Datenerhebung

    Das Erheben und Sammeln von Daten ist ein kritischer Schritt, bei der Entwicklung effektiver und zuverlässiger KI-Modelle. Aus dem Verständnis für den Problembereich ergibt sich welche Daten besonders wichtig für den Prozess sind, und welche Daten überhaupt erhoben werden können. Dabei ist auf Qualität, Quantität und Repräsentativität zu achten. Die Daten sollten genau, vollständig und relevant für die zu lösende Aufgabe sein. 


    In diesem Bereich bietet Fraunhofer IGCV folgende Bildungsfromate an: Digitaler Zwilling in der Produktionsplanung und Steureung, Maschienendaten in der Produnktionsplanung und Steuerung, Digitalisierung kompakt und Lernspiel Lernfabrik


    Für weitere Infos und Teilnahme wenden Sie sich an Dr.-Ing. Martin Feistle. 


        Tel: +49 821 90678-158

        E-Mail: Martin.Feistle[at]igcv.fraunhofer.de

  • Datenexploration

    Bevor mit dem Modelltraining begonnen werden kann, ist es wichtig sich mit den gesammelten Daten vertraut zu machen. Durch Sichtung, statistische Zusammenfassung, Korrelationsanalyse und Visualisierung können Strukturen und Hauptcharakteristika der Daten verstanden werden. Des Weiteren wird untersucht, ob und wo in den Daten fehlende Werte oder Ausreißer vorhanden sind, und wie mit diesen Umgegangen werden soll. Auf Basis der gewonnenen Erkenntnisse können Muster, Trends oder Anomalien identifiziert werden, welche die Hypothesenbildung und Modellierung unterstützen.

  • Datenvorverarbeitung

    Ziel der Datenvorverarbeitung ist es, die Qualität der Daten zu erhöhen und sie in ein Format zu bringen, das von Analysewerkzeugen und Algorithmen effektiv genutzt werden kann. Zunächst werden Fehler und Inkonsistenzen in den Daten (z.B. Duplikate, fehlende Werte, Schreibfehler, Ausreißer) bereinigt. Insgesamt ist die Datenvorverarbeitung ist ein kontextabhängiger Prozess, der sich nach den spezifischen Anforderungen des Projekts, der Qualität der Rohdaten und den Zielen der Analyse richtet. Kommen die gesammelten Daten beispielsweise aus verschiedenen Quellen müssen diese in eine gemeinsame Datenbasis überführt werden. Um dabei die Einheitlichkeit bei Skalen, Formaten und Kodierungen zu wahren kann es notwendig sein eine Datentransformation (Normalisierung, Encoding, Feature Engineering) vorzunehmen. Je nach Art der Daten und intendierten Anwendung kann es notwendig sein die gesammelten Daten zu reduzieren (Feature Selection, Dimensionalitätsreduktion) oder anzureichern. 


    In diesem Bereich bietet Fraunhofer IGCV das Bildungsfromat Vorverarbeitung von Maschienedaten an.


    Für weitere Infos und Teilnahme wenden Sie sich an Dr.-Ing. Martin Feistle. 


        Tel: +49 821 90678-158

        E-Mail: Martin.Feistle[at]igcv.fraunhofer.de

Entwicklung des Modells

  • Auswahl und Training des Modells

    Welches Modell ausgewählt werden soll, hängt davon ab welche Art Daten vorliegt und welches Problem zu lösen ist. Bild- und Videomaterial werden z.B. gut von Tiefen Neuronalen Netzen analysiert, während sich bei numerischen Daten unter anderem Entscheidungsbäume anbieten. Gleichzeit ist allerdings wichtig, ob es sich bei dem Problem um eine Klassifikation, Regression oder Clustering handelt. Neben der Performance, die an Datenarten und Probleme gebunden ist, haben alle Modelle zusätzliche Eigenschaften, die entweder von Vorteil oder Nachteil sein können. Ob es besonders wichtig oder problematisch ist, wenn ein  Modell z.B. sehr sensibel auf Ausreißer reagiert, die Fähigkeit hat vieldimensionale Daten zu verarbeiten, oder die Berechnung nachvollzogen werden kann, variiert je nach Einsatzdomäne.

    Das Training besteht in erster Linie in der Anwendung des Lernalgorithmus unter den im Datenverwaltungsprozess definierten Bedingungen. Anschließend an einen Trainingszyklus wird die Performance des Modells betrachtet. Iterativ werden dann einige Parameter des Modells angepasst, um es erneut zu trainieren und zu bewerten, ob die Performance den gesetzten Erwartungen entspricht. 




  • Implementierung des Modells

    Zur Implementierung wird das Modell eingefroren, umgewandelt und optimiert. Die Anforderungen der Implementierung ergeben sich einerseits aus den vorhergehenden Schritten, z.B. in Bezug auf die Datenverarbeitung, Hardwareanforderungen und Performance; andererseits geht es darum, das Modell insofern anzupassen, dass es mit der Zielplattform kompatibel ist und deren Ressourcen optimal ausnutzt.


    In diesem Bereich bietet Fraunhofer IGCV das Bildungsfromat Mit Guided Coding zum ersten ML-Model an. 


    Für weitere Infos und Teilnahme wenden Sie sich an Dr.-Ing. Martin Feistle. 


        Tel: +49 821 90678-158

        E-Mail: Martin.Feistle[at]igcv.fraunhofer.de

  • Verifikation und Validierung des Modells

    Die Validierung eingefrorenen Modells dient dazu zu prüfen, dass die antrainierten Eigenschaften durch die Implementierung nicht verändert werden. Zunächst wird dafür eine Reihe von Modelleigenschaften, die beibehalten werden soll, erfasst. Darüber hinaus werden die Leistungskennzahlen, deren akzeptable Abweichung, sowie Soft- und Hardwareunterschiede zwischen der für das Training verwendeten und der für die Verifikation verwendeten Plattform dokumentiert. Ein weiterer Schritt ist es die Robustheit des Modells unter erschwerten Bedingungen zu testen. 

Einrichtung der Anwendung

  • Einrichtung der Anwendung

    Nun gilt es das Modell in den Gesamtprozess einzubetten. Diese Schritte können sich mit der Implementierung, Validierung und Verifikation des Modells decken. Stellt das Modell allerdings nur einen kleinen Teil eines großen Prozesses oder Produkts dar, so muss die Interaktion des KI-Modells mit den klassischen Hard- und Software Anteilen des Workflows ermöglicht werden.


    In diesem Bereich bietet Fraunhofer IGCV folgende Bildungsfromate an: Konfiguration von Assiszenzsystemen sowie Lernlabor Robotik & KI


    Für weitere Infos und Teilnahme wenden Sie sich an Dr.-Ing. Martin Feistle. 


        Tel: +49 821 90678-158

        E-Mail: Martin.Feistle[at]igcv.fraunhofer.de 

  • Verifikation und Validierung der Anwendung

    Vor allem dann, wenn das KI-Modell nur einen Anteil des Produkts darstellt, ist es wichtig zu evaluieren wie sich das implementierte Modell in die Gesamtstruktur der Anwendung einfügt. Funktioniert die Anwendung einwandfrei und erbringt sie als Gesamtpacket die angestrebte Leistung? Für diese Bewertung bedarf es andere Leistungskennzahlen als die der Modell-Evaluation. Während die Modelle vor allem nach ihrer Treffsicherheit, Verlässlichkeit, und Effektivität bewertet werden, kommen bei Gesamtprodukten auch Aspekte wie Nutzungsfreundlichkeit, Produktionsqualität und Geschwindigkeit, und Rentabilität hinzu.

Kontinuierliche Anforderungen an die Organisation

  • Dokumentation

    Fortlaufendes Daten und Wissensmangement: Aufgrund des datengesteuerten Lernprozesses ist bei ML-Anwendungen, unabhängig vom betrachteten Bereich, besonderes Augenmerk auf Informationssicherheit zu legen (Backup und Storage). Es muss dauerhaft sichergestellt sein, dass die Daten während der Speicherung oder Verarbeitung nicht beschädigt werden, und darüber hinaus, dass die Daten für den vorgesehenen Verwendungszeitraum anwendbar sind. 

    Das Wissensmanagement beschäftigt sich mit sorgfältiger Dokumentation, vom Ursprungsmodell, Änderungen, Problemen, Workflows und Neutrainierungen. Dies erleichtert die Wartung, macht Probleme und Erfolge nachvollziehbar und ermöglicht es Ergebnisse zu reproduzieren.


    In diesem Bereich bietet Fraunhofer IGCV das Bildungsfromat Digitalisierung kompakt an. 


    Für weitere Infos und Teilnahme wenden Sie sich an Dr.-Ing. Martin Feistle. 


        Tel: +49 821 90678-158

        E-Mail: Martin.Feistle[at]igcv.fraunhofer.de

  • Training von Nutzenden

    Um die Sicherheit und Gefahrlosigkeit im Umgang mit der Anwendung zu gewährleisten, gilt es auch die (End-)Nutzenden entsprechend zu schulen. Damit Nutzende eine Anwendung nicht nur sicher, sondern auch effektiv einsetzen und warten können, und darüber hinaus in der Lage sind deren Erzeugnisse zu bewerten, muss die Funktionsweise der Anwendung nachvollziehbar sein. Die Grundsteine für diese Anforderung werden bereits in früheren Schritten gelegt, indem menschliche Faktoren und Transparenz in die Entwicklung einfließen. Nutzungsgruppenbezogene Trainings schließen diesen Kreis und geben ggf. Aufschluss über Mängel in der Nutzungsfreundlichkeit und Intransparenz.


    In diesem Bereich bietet Fraunhofer IGCV das Bildungsfromat Train the KI-Trainer an.


    Für weitere Infos und Teilnahme wenden Sie sich an Dr.-Ing. Martin Feistle. 


        Tel: +49 821 90678-158

        E-Mail: Martin.Feistle[at]igcv.fraunhofer.de

  • Monitoring von Sicherheit, Gefahrlosigkeit & ethischen Aspekten

    Da die Anwendung fortlaufend auf Stand gehalten und weiterentwickelt wird, müssen auch Aspekte von Sicherheit, Gefahrlosigkeit und Ethik kontinuierlich geprüft werden. Kontinuierliches Monitoring der Anwendung und ihrer Einsatzumgebung ermöglicht es, entstehende Risiken zu erkennen oder bereits vorherzusehen. So muss z.B. die Verschlüsselung von Daten sich stetig wachsenden Sicherheitsstandards anpassen, um der ebenso stetigen Verbesserung von Entschlüsselungsalgorithmen wirksam entgegenzustehen. Weiterhin liefern Daten aus der Betriebsphase Hinweise darauf, ob die Sicherheits- und Gefahrlosigkeitsziele während des Gesamten Lebenszyklus‘ gewährleistet sind.

  • Rechtliches

    Im Dezember 2023 hat die Europäische Union den AI-Act beschlossen. Die Kommission schlägt neue Regeln vor, um sicherzustellen, dass die in der EU eingesetzten KI-Systeme sicher, transparent, ethisch vertretbar, unvoreingenommen und unter menschlicher Kontrolle sind. Dies verbietet z.b. Anwendungen, welche die Grundrechte von EU-Bürgern klar einschränken oder gefährden und setzt Richtlinien für Bereiche mit gesteigertem Risiko fest. 


Das KI-Produktionsnetzwerk Augsburg wird mit 92 Millionen Euro aus der Hightech Agenda der bayerischen Staatsregierung gefördert.

 

Das KI-Produktionsnetzwerk an der Universität Augsburg wird durch das Bayerische Staatsministerium für Wissenschaft und Kunst gefördert.

Share by: