04242024Mi
Last updateDi, 23 Apr 2024 4pm
>>

Neue Studie von VDE und Bertelsmann Stiftung: KI-Ethik messbar machen

In einer neuen Studie zeigen VDE und Bertelsmann Stiftung, wie Ethik in der KI konkret umsetzbar und messbar wird
„Hands-on“: Studie gibt Unternehmen Werkzeug in die Hand, KI anzuwenden und liefert notwendige Orientierung
Modell international anwendbar: VDE und Bertelsmann Stiftung wollen KI „made in Europe“ zum Durchbruch verhelfen

In einer neuen Studie zeigen die Technologieorganisation VDE und die Bertelsmann Stiftung, wie sich Ethikprinzipien für Künstliche Intelligenz (KI) in die Praxis bringen lassen. Zwar gibt es eine Vielzahl an Initiativen, die ethische Richtlinien für die Gestaltung von KI veröffentlicht haben, allerdings bis dato kaum Lösungen für deren praktische Umsetzung. Genau hier setzt der VDE als Initiator und Leiter der „AI Ethics Impact Group“ gemeinsam mit der Bertelsmann Stiftung an. Die Studie „From principles to practice – an interdisciplinary framework to operationalise AI ethics“ zeigt, wie mit der geschickten Kombination dreier Werkzeuge – einem WKIO-Modell, einem KI-Ethik-Label und einer Risikoklassifizierung – allgemeine ethische Prinzipien messbar und konkret umsetzbar werden. Das größte Hindernis für die Entwicklung von ethischer KI sind laut VDE und Bertelsmann Stiftung die Unschärfen und die unterschiedlichen Verständnisse von Prinzipien wie „Transparenz“ und „Gerechtigkeit“. Dies führt dazu, dass KI-entwickelnden Unternehmen die nötige Orientierung fehlt und eine wirksame Durchsetzung von KI-Ethik bisher schwierig war.

Messbarkeit und Sichtbarkeit durch WKIO-Modell und Ethik-Label
Das sogenannte WKIO-Modell (im Englischen VCIO: Value, Criteria, Indicators, Observables) schlüsselt Werte in Kriterien, Indikatoren und letztlich messbare Observablen auf. Demonstriert wird dies in der Studie für die Werte Transparenz, Gerechtigkeit und Verantwortlichkeit. Das WKIO-Modell kann von Politikentwicklern, Regulierern und Aufsichtsbehörden genutzt werden, um Anforderungen an KI-Systeme zu konkretisieren und durchzusetzen. Das ebenfalls im Rahmen der Studie entwickelte Ethik-Label für KI-Systeme ermöglicht Unternehmen, die ethischen Eigenschaften ihrer Produkte klar und einheitlich zu kommunizieren. Das Label lehnt sich an das erfolgreiche Energieeffizienzlabel für Elektrogeräte an und schafft sowohl für Konsumenten als auch Unternehmen eine bessere Vergleichbarkeit der auf dem Markt zur Verfügung stehenden Produkte. „Mit dem Label legen wir die Grundlage für das Setzen regulatorischer Grenzen und schaffen gleichzeitig die Voraussetzungen für einen funktionierenden Markt,“ erklärt Dr. Sebastian Hallensleben vom VDE. Es handele sich nicht um ein ungenaues ja/nein-Gütesiegel, sondern um eine abgestufte Kennzeichnung relevanter Eigenschaften eines Systems, macht Hallensleben deutlich. Welche Eigenschaften sich dabei beispielsweise hinter „Transparenz: Klasse C“ oder „Gerechtigkeit: Klasse B“ verbergen, wird anhand des WKIO-Models spezifiziert. „Für KI-entwickelnde Unternehmen bietet der Ansatz eine Möglichkeit, ethische Selbstverpflichtungen auszudifferenzieren und ihren Mitarbeitenden konkrete Orientierung für die Umsetzung der darin enthaltenen Prinzipien zu bieten“, sagt Carla Hustedt von der Bertelsmann Stiftung. Organisationen, die KI nutzen wollen, könnten das Modell auch dafür verwenden, Kriterien für die Beschaffung passender KI-Systeme zu definieren.

Risiko-Matrix hilft bei Klassifizierung von KI-Anwendungsfällen
Welche Eigenschaften eines KI-Systems als „ethisch ausreichend“ gelten, ist vom konkreten Anwendungsfall abhängig. Der Einsatz eines KI-Systems zur Verteilung von Gütern dürfte beispielsweise in der Möbellogistik ethisch weniger heikel sein als bei der Belieferung von Krankenhäusern. Die Studie stellt daher mit der „Risiko-Matrix“ einen Ansatz zur Klassifizierung des Anwendungskontexts vor. Während die niedrigste Klasse 0 keine weiteren ethischen Überlegungen erfordert, dürfen für die Klassen 1 bis 3 nur KI-Systeme eingesetzt werden, die das obige KI-Ethik-Label tragen und innerhalb dieses Labels bestimmte Mindestanforderungen erfüllen. Die Einstufung in Klasse 0, 1, 2 oder 3 berücksichtigt einerseits die Intensität des potenziellen Schadens, beispielsweise das Ausmaß der Verletzung von individuellen Grundrechten, die Anzahl der betroffenen Personen oder mögliche negative Auswirkungen auf die Gesellschaft als Ganzes, und andererseits die Abhängigkeit der betroffenen Personen bzw. deren Möglichkeit, sich einer KI-Entscheidung zu entziehen, ein anderes System wählen oder eine bestehende Entscheidung hinterfragen zu können.

Die Studie „From principles to practice – an interdisciplinary framework to operationalise AI ethics“ entstand unter der Federführung von VDE und Bertelsmann Stiftung in der „AI Ethics Impact Group“ und kann kostenlos heruntergeladen werden.
www.vde.com

 

comments

Related articles

  • Latest Post

  • Most Read

  • Twitter

Who's Online

Aktuell sind 9779 Gäste und ein Mitglied online

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell für den Betrieb der Seite, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern (Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.