Wenn A eintritt, dann B durchführen: so laufen die Prozesse im Hintergrund von klassisch programmierter Software im Regelfall ab. Anders verhält es sich bei Anwendungen, bei denen Künstliche Intelligenz (KI) eingesetzt wird. KI-Anwendungen können anhand der Informationen, die ihnen zur Verfügung gestellt werden, eigene Modelle entwickeln. Mit diesen Modellen kann die KI dann zuvor formulierte Probleme bearbeiten, ohne dass die exakten, mathematisch oft (zu) komplexen, Gesetzmäßigkeiten bekannt sein müssen. Die KI liefert ihre Ergebnisse als Produkt ihres eigenen „maschinellen Lernens“, aufbauend auf den Trainingsdaten, die ihr zur Verfügung gestellt wurden.
Für diese Anwendungen gibt es zahlreiche rechtlich relevante Einsatzmöglichkeiten, etwa im Asylverfahren: In einem Trainingsprozess werden der KI-Anwendung vorhandene Daten (z.B. Sprachmuster von bekannten Personen) eingegeben, anhand derer die KI lernt, das Sprachmuster einer neuen Person zu erkennen und etwa einer bestimmten Region zuzuordnen (siehe einen Anwendungsfall). Auch in anderen Bereichen, die rechtlich relevant werden können, spielen von einer KI unterstützte oder produzierte Modelle eine große Rolle: Lügendetektoranalysen bei der Einreise an EU-Außengrenzen, Gesichtserkennung im öffentlichen Raum, Hochwassergefährdungsprognosen, Verkehrsmodellierungen oder, ganz aktuell, Prognosen über Viren-Ausbreitungsszenarien.
Dieser Einsatz von KI wirft jedoch heikle Fragestellungen auf, mit denen sich Iris Eisenberger (Institut für Öffentliches Recht) auseinandersetzt. „Diese Anwendungen von KI haben gemein, dass Modelle, die anhand vorhandener Daten trainiert wurden, Eingang in rechtliche Entscheidungen gefunden haben. Dadurch stellen sich unweigerlich Fragen zu den Daten, die den Modellen zugrunde liegen. Anspruchsvoll wird das insbesondere dort, wo rechtlich geschützte Güter gefährdet sind“, erklärt die REWI-Professorin und ergänzt, „Diese Modelle sind sehr leistungsfähig, oft aber nicht oder nur sehr schwer nachvollziehbar“. Damit spricht die Expertin für KI und Recht den Aspekt an, dass die einzelnen Schritte, die zu den Ergebnissen eines KI-basierten Modells führen, nur schwer über- und nachprüfbar sind.
Wie kann man dieser Problematik begegnen? Iris Eisenberger: „Eine inhaltlich orientierte Regulierung der Entscheidungsvorgänge ist schwierig. Es könnten daher Lösungen in Verfahrens- und Organisationsvorschriften gefunden werden, beispielsweise indem rekursive Evaluierungs- und Feedbackschleifen implementiert werden, die an der Qualität der Input- und Output-Daten oder an der Leistungsfähigkeit des Modells ansetzen.“
Mehr über die Arbeit von Professorin Eisenberger und ihr Innovation Law Team an der REWI Graz erfahren Sie hier.