Systeme mit integrierter künstlicher Intelligenz (KI) sind derzeit in aller Munde. Ihre Möglichkeiten, durch die Analyse großer Datenmengen binnen kürzester Zeit zu Lösungsvorschlägen zu gelangen, verheißen für viele Bereiche des täglichen Lebens enormes Potenzial. „Wenn man den Marketingabteilungen großer Tech-Konzerne Glauben schenkt, wird ohnedies bald alles von sog. ‚intelligenten‘ Systemen übernommen“, beobachtet Datenschutzjurist David Bierbauer die jüngsten Meldungen im Technologiesektor und ergänzt: „Doch auch unabhängig vom aktuellen Hype rund um KI lässt sich nicht mehr verneinen, dass die Forschung und Entwicklung enorme Fortschritte gemacht hat.“ In der Medizin, der Automobilindustrie, im Straßenverkehr und ebenso im Umweltschutz werden immer konkretere und praktischere Anwendungen augenscheinlich. Man denke nur, wie weit künstliche Intelligenz bei vielen von uns zuhause bereits ins Wohnzimmer vorgedrungen ist: Die digitalen Assistenten Siri oder Alexa stehen auf Zuruf bereit.
Bis ein KI-System allerdings einsatzbereit ist, muss es mit jeder Menge (qualitativ hochwertiger und) möglichst umfangreicher Daten trainiert werden, anhand welcher die künstliche Intelligenz für den späteren Praxiseinsatz „lernt“. Vor allem zu Forschungszwecken werden diese Trainingsdaten oftmals aus einer Vielzahl von Quellen zusammengezogen. In den umfassenden und detaillierten Datensätzen können sich vielfach sensible Daten von Personen befinden, die ein Vertraulichkeitsinteresse an diesen Daten haben. Wie würden Sie z.B. reagieren, wenn ein Chatbot in einem Text Informationen ausspuckt, die auf Sie rückführbar sind?
Zum Interessenausgleich und zur Minimierung der Risiken im Zusammenhang mit der Verarbeitung schutzwürdiger Daten haben sich daher verschiedene Strategien für einen freien Datenverkehr unter möglichst datenschutzfreundlichen Bedingungen entwickelt. „Hierbei werden Verfahren zur Anonymisierung oft als ‚Allheilmittel‘ angepriesen, obwohl der Personenbezug i.d.R. nicht ganz entfernt wird und darüber hinaus durch das Entfernen von identifizierenden Elementen wertvolle Informationen verlorengehen“, führt David Bierbauer aus. „Die Verarbeitung von unvollständigen Trainingsdaten verringert die Qualität der entwickelten KI-Modelle und kann deren Fehleranfälligkeit erhöhen. Damit stellt die ‚klassische‘ Anonymisierung sowohl für Entwickler_innen wie auch letztlich für Nutzer_innen und Betroffene ein nicht vollends zufriedenstellendes Werkzeug dar“, so der Wissenschafter am Institut für Rechtswissenschaftliche Grundlagen (Fachbereich Recht und IT).
Tatsächlich gibt es aber – neben der Anonymisierung – eine Reihe von Möglichkeiten, wie die gegenläufigen Schutzinteressen „freier Datenverkehr“ und „Datenschutz“ durch den Einsatz von technischen Werkzeugen unter einen Hut gebracht werden können, ohne die Qualität der Daten zu verringern. Hierbei lässt sich rund um sog. Privacy Enhancing Technologies (PETs) eine hohe Forschungsaktivität beobachten. Besondere Aufmerksamkeit erfahren in diesem Zusammenhang insbesondere solche technischen Verfahren, die es erlauben, anderen Verarbeitungsparteien Zugriff auf eigene Daten zu ermöglichen, ohne diesen gutgläubig vertrauen zu müssen.
„Eine dieser Möglichkeiten ist etwa ‚Secure Multiparty Computation‘ (SMPC). Das Innovationspotenzial dieses Verfahrens liegt in der Möglichkeit, (verschlüsselte) Auswertungen an umfangreichen Datenbeständen mehrerer Parteien in einer Weise vornehmen zu können, als wären sämtliche Daten an einer Stelle gebündelt zusammengeführt; und zwar ohne diese Datenbestände gegenüber den anderen Parteien offenzulegen. Die teilnehmenden Verarbeitungsparteien haben dabei weder technisch noch organisatorisch die Möglichkeit, auf Daten, die von den anderen Parteien in diesen gemeinsamen ‚Topf‘ eingebracht werden, zuzugreifen“, erklärt David Bierbauer.
Damit können mithilfe von SMPC im Ergebnis auch Datenverarbeitungen – wie etwa das Training eines KI-Systems – zwischen Parteien vorgenommen werden, die sich gegenseitig nicht vertrauen oder ihre Datenbestände aus Wettbewerbs- bzw. Geheimnisschutzerwägungen nicht miteinander teilen möchten. Bierbauer: „In diesem Sinne vermag die Technologie die beiden antagonistisch ausgerichteten Ziele ‚Datenschutz‘ sowie ‚freier Datenverkehr‘ ohne (größere) Abstriche beiderseits zu fördern und kann zur Entwicklung von qualitativ hochwertigen KI-Systemen beitragen.”