Springe direkt zum: Inhalt

Inspirieren

3 Fragen an Daniel Krupka (GI): KI-Observatorium regt Forschungsprojekt zu erklärbaren KI-Anwendungen an

Veröffentlicht am 19. Mär 2020

Ein interdisziplinäres Team untersucht im Auftrag des Observatoriums Künstliche Intelligenz in Arbeit und Gesellschaft mögliche Kontroll- und Testverfahren für KI-Systeme in der Industrieproduktion sowie im Recruiting.

Daniel Krupka vertritt als Geschäftsführer die Gesellschaft für Informatik (GI) gegenüber Öffentlichkeit, Politik, Wirtschaft, Verbänden, pflegt die externen Netzwerke und leitet die Geschäftsstelle in Berlin. Er ist verantwortlich für Projekte der GI u. a. zu Künstlicher Intelligenz, zur Algorithmenregulierung, zu digitaler Bildung und digitaler Souveränität, zu Data Literacy und Data Science.

1. Worum geht es in Ihrem Forschungsprojekt?

Im Projekt „Machbarkeit von Testing und Auditing von KI-basierten Systemen“ will ein interdisziplinäres Team aus (Sozio-)Informatiker*innen, Software-Ingenieuren sowie Rechts- und Politikwissenschaftler*innen anhand von zwei konkreten Anwendungsbereichen der Frage nachgehen, wie sinnvolle Kontroll- und Testverfahren für KI-Systeme aussehen können. Die zwei Anwendungsbereiche sind Mensch-Maschine-Kooperation in der Industrieproduktion sowie KI-Systeme im Personal- und Talentmanagement und Recruiting.

Im Rahmen der Studie werden die rechtlichen und sozio-technischen Anforderungen an KI-Systeme, die geltenden und derzeit entwickelten Standards, Normen und Richtlinien sowie erfolgreiche Test-, Kontroll- und Zertifizierungspraktiken untersucht und analysiert. Zu den Ergebnissen des Projekts werden konkrete Handlungsempfehlungen für die rechtliche und technische Ausgestaltung von Testing- und Auditingverfahren stehen.

Das Projekt wird von der Gesellschaft für Informatik e.V. zusammen mit der TU Kaiserslautern, der Universität des Saarlandes, Fraunhofer IESE und der Stiftung Neue Verantwortung e.V. umgesetzt.

2. Welche Fragen will das Projekt beantworten?

Unter anderem:

Welche Maßnahmen sind geeignet, das Vertrauen in KI-Systeme zu stärken?

Welche rechtlichen Bereiche müssen bei der Regulierung von KI-Systemen im Entscheidungs- und Produktionsumfeld berücksichtigt werden?

Welche technischen Mindeststandards bei der Planung und Umsetzung von KI-Systemen müssen berücksichtigt werden, um effektives und effizientes Testen und Auditieren zu ermöglichen?

Welche organisatorischen Rahmenbedingungen sind für ein verlässliches Testen und Auditieren von KI-Systemen erforderlich?

Welche Handlungsempfehlungen können im Rahmen der KI-Strategie der Bundesregierung ausgesprochen werden, um die rechtsstaatskonforme Einbettung und Kontrolle algorithmischer Entscheidungssysteme zu gewährleisten?

Welche Kriterien sollten für die öffentliche Hand bei der Entwicklung, dem Erwerb und dem Einsatz von KI-Systemen gelten?

Sollten KI-Systeme produktbezogen reguliert werden oder bietet sich ein horizontaler Ansatz an?

3. Welche KI-Innovation würden Sie sich persönlich am meisten wünschen?

Nicht nur KI-Systeme sind von eingebauter Diskriminierung und Ungleichbehandlung betroffen. Auch in analogen, von Menschen ausgeführten, Prozessen und Algorithmen stecken nicht selten diskriminierende Faktoren. Eine KI, welche hilft, solche analogen Prozesse zu analysieren und versteckte Diskriminierung aufdecken, wäre eine echte Chance.