Springe direkt zum: Inhalt

Wissen

Szenarien für Forschungsprojekt „ExamAI – KI Testing & Auditing“ entwickelt

Veröffentlicht am 20. Nov 2020

Um zu untersuchen, wie KI-basierte Anwendungen für Arbeitnehmer*innen und Verbraucher*innen vertrauenswürdig und sicher sein können, startete im Mai 2020 ein Verbundprojekt des KI-Observatoriums der Abteilung Denkfabrik Digitale Arbeitsgesellschaft unter Federführung der Gesellschaft für Informatik (GI). Die Wissenschaftler*innen haben nun Szenarien für die Nutzung von Künstlicher Intelligenz entwickelt – und damit den Grundstein für das Forschungsprojekt gelegt.

Seit Mai 2020 arbeiten verschiedene Forschungseinrichtungen in dem Verbundprojekt „ExamAI – KI Testing & Auditing“ zusammen. Die Institutionen erforschen gemeinsam die Frage, wie Kontroll- bzw. Testverfahren und Zertifizierungen für KI-Systeme entwickelt und durchgeführt werden können. Zu den Verbundpartner*innen zählen das Fraunhofer IESE, das Algorithm Accountability Lab an der TU Kaiserslautern, das Institut für Rechtsinformatik an der Universität des Saarlandes, die Stiftung Neue Verantwortung und die Gesellschaft für Informatik als Projektleitung. Das Forschungsprojekt wurde durch das KI-Observatorium der Abteilung Denkfabrik Digitale Arbeitsgesellschaft initiiert und ist für eine Dauer von 20 Monaten angelegt.

Anwendungsszenarien schaffen die Grundlage

Im ersten Schritt haben die Forschungseinrichtungen nun konkrete Szenarien entwickelt, in denen der Einsatz von KI sowie dessen Potential und Herausforderungen deutlich werden. Diese Anwendungsszenarien sind die Grundlage für die weitere Forschung. Auf ihrer Basis werden in einem zweiten Schritt geeignete Kontroll- und Testpraktiken für den KI-Einsatz identifiziert. Abschließend werden im dritten Schritt Handlungsempfehlungen formuliert, die sich an die Stakeholder*innen sowie die Politik richten. Sie sollen eine Einschätzung darüber geben, wie eine angemessene Verankerung der definierten Standards in der nahen Zukunft aussehen könnte - etwa auf der institutionellen Ebene.

Im Fokus für die Szenarienentwicklung: zwei Bereiche des KI-Einsatzes

Für die Entwicklung der Anwendungsszenarien haben sich die Forscher*innen auf zwei Bereiche fokussiert: erstens auf die Kooperation von Mensch und Maschine in der Industrieproduktion, zweitens auf das Personal- und Talentmanagement sowie das Recruiting. Der Grund: In beiden Bereichen berührt der KI-Einsatz ganz besonders die Rechte der Arbeitnehmer*innen.

Für jeden Bereich haben die Forscher*innen unterschiedliche Szenarien aufgestellt. So wurde beispielsweise für die Kooperation von Mensch und Maschine in der Industrieproduktion das Szenario eines intelligenten Cobot durchgespielt, der in der Autoproduktion die Klimakompressen falsch montiert. Ein Cobot ist ein kollaborativer Roboter, der dem Menschen Tätigkeiten abnehmen kann, die sehr monoton, wiederholend ergonomisch oder sogar gesundheitsgefährdend sind. Anhand dieses Szenarios diskutieren die Forscher*innen anschließend, welche Schäden durch den KI-Einsatz entstehen können, aber auch, welches Potenzial Cobots haben, wenn sie durch KI gesteuert werden – beispielsweise bei der Sicherheit.

Auch für den Bereich Personal- und Talentmanagement sowie Recruiting haben die Wissenschaftler*innen verschiedene Szenarien entwickelt. Zum Beispiel ein Szenario, bei dem mithilfe von KI ein Background-Check – also ein Hintergrund-Check – eines Bewerbers auf eine Stellenanzeige vorgenommen wird. Damit soll sichergestellt werden, dass die Angaben des Bewerbers korrekt sind. Dieses KI-unterstützte Verfahren entlastet unter anderem einerseits die Personalabteilung, da es diese Prüfung übernimmt und somit Ressourcen eingespart werden. Andererseits jedoch kann es beispielsweise passieren, dass die KI den Bewerber mit einer anderen Person bei dem Check verwechselt. Die Expert*innen sprechen dabei von dem Entitätserkennungsproblem, das sich nachteilig auf den Bewerber auswirken kann – schließlich werden bei dem Background-Check nicht seine Angaben, sondern die Angaben jener Personen, mit der ihn die KI verwechselt, überprüft. Damit birgt auch dieses Szenario Chancen und Risiken – und ist Grundlage für die weitere Forschung in dem Projekt.

Nächster Schritt: Test- und Auditierungsverfahren für vertrauenswürdige KI

Mit dem Projekt „ExamAI – KI Testing & Auditing“ wollen die Forscher*innen verschiedene Fragen beantworten. Unter anderem soll geklärt werden, wie Test- und Auditierungsverfahren aussehen müssen, um einen diskriminierungsfreien Einsatz von Künstlicher Intelligenz zu gewährleisten und welche rechtlichen und technischen Voraussetzungen dafür notwendig sind. Zudem soll herausgefunden werden, wie Transparenz, Nachvollziehbarkeit, Fairness, Haftbarkeit, Zuverlässigkeit und Datenschutz umgesetzt werden können.

Kurzum: Es geht um die Frage, welche Kritieren notwendig sind, um Künstliche Intelligenz vertrauenswürdig einzusetzen. „Wir wissen doch, dass Vertrauen elementar ist - auch in den Betrieben, in den Unternehmen und in den unterschiedlichsten Arbeitszusammenhängen“, erklärte Staatssekretär Björn Böhning bei dem Start des Projektes und verwies damit auf eine wichtige Grundvoraussetzung des KI-Einsatzes. „Wenn wir die Vorzüge der KI-Verfahren langfristig nutzen und diese Technologie weiter ausbauen wollen, dann müssen wir uns auch über die Frage der Akzeptanz Gedanken machen. Den Beschäftigten sollte stets klar sein, welche KI-Lösungen sie wann, warum und wie verwenden. Sie sollten wissen, dass die KI-Systeme hohen Qualitätsanforderungen unterliegen", so Staatssekretär Böhning weiter.