03.10.2020, 15:00 Uhr

Gerade keine Zeit? Jetzt speichern und später lesen

Künstliche Intelligenz oder Schutz der Privatsphäre: Müssen wir uns wirklich zwischen diesen beiden Optionen entscheiden, oder gibt es einen Ausweg aus dem KI-Privatsphärendilemma?

Ein Kind springt auf die Straße – eine blitzschnelle Entscheidung muss gefällt werden, ob das Kind auf der Straße oder durch ein Ausweichmanöver eine erwachsene Person auf dem Bürgersteig überfahren wird. Was ist die richtige Entscheidung; gibt es sie überhaupt? Und macht es einen Unterschied, ob es eine Spontanreaktion eines Menschen oder eine im Vorfeld einprogrammierte Entscheidung einer künstlichen Intelligenz (KI) ist?
Diese Szene ist mittlerweile das Standardbeispiel für eine moralische Zwickmühle, die KI mit sich bringt. Solche Zwickmühlen oder Dilemmata in der ein oder anderen Form gehörten bislang zum Standardrepertoire der Logik, Philosophie und Rechtsprechung – und jetzt eben auch zur KI. Dabei geht es aber nicht immer um konkrete Entscheidungen über Tod und Leben, sondern auch um Entscheidungen auf einer abstrakteren Ebene.Nix mehr verpassen: Die t3n Newsletter zu deinen Lieblingsthemen! Jetzt anmelden

KI-Dilemmata – eine Büchse der Pandora?
Denn in fast jeder Diskussion um KI fällt früher oder später die Aussage: „KI eröffnet uns nicht nur neue Möglichkeiten, sondern stellt uns auch vor neue Herausforderungen.“ Durch KI vergrößert sich zwar unser Handlungsspielraum, gleichzeitig werden die Entscheidungssituationen auch stetig komplizierter. Sune Hannibald Holm, Associate Professor der Philosophie an der Universität Kopenhagen, bringt es in seinem Ted-X-Vortrag prägnant auf den Punkt: „Auf der einen Seiten können wir diese Systeme einsetzen, um zu verhindern, dass Menschen und Gesellschaft zu Schaden kommen. Auf der anderen Seite scheint es aber wichtige Werte wie die Privatsphäre und Autonomie zu bedrohen, wenn wir diese Systeme einsetzen.“
Als Individuen und Gesellschaft befinden wir uns in einem allgemeinen Dilemma: Ist KI eine Büchse der Pandora, die – einmal geöffnet – sich nicht mehr schließen lässt? Oder entspringt ihr – ganz wie in der griechischen Mythologie – gar die Hoffnung auf eine neue, bessere Welt?
Das KI-Privatsphärendilemma
Bei den Zwickmühlen, mit denen uns KI konfrontiert, geht es aber nicht nur darum, welche Entscheidungen sie treffen kann, darf oder soll. Wir müssen stattdessen sogar noch einen weiteren Schritt zurückgehen und uns fragen, wie wir KI überhaupt aufstellen und ob der derzeitige Status quo sinnvoll ist.
Dazu lohnt es sich, beispielhaft eines der von Holms identifizierten Themen näher in Augenschein zu nehmen: die Privatsphäre. Laut der UN Universal Declaration of Human Rights ist der Schutz der Privatsphäre ein fundamentales Menschenrecht. Gleichzeitig setzen neue technische Möglichkeiten unsere Privatsphäre von allen Seiten aus unter Druck. Für KI ergibt sich hieraus gar ein eigenes Dilemma: das sogenannte KI-Privatsphärendilemma (AI Privacy Dilemma).
Das KI-Privatsphärendilemma lässt sich wie folgt durchdeklinieren: Zum Trainieren von KI-Modellen werden große Mengen an Daten benötigt. Dabei gilt grundsätzlich (neben der Qualität der Daten) die Devise: je mehr, desto besser. Je mehr Daten aber erstellt, gesammelt und verwendet werden, desto größer wird auch die Gefahr, dass diese Daten missbraucht werden – zum Beispiel dadurch, dass sie für andere als die ursprünglichen Zwecke verwendet oder gar an Dritte verkauft werden. Diese Gefahr ist auch deshalb so groß, weil der Markt um Nutzerdaten so lukrativ geworden ist und hier sehr schnell große Summen an Geld im Spiel sind. Und selbst wenn gesammelte Nutzerdaten nicht für andere Zwecke verwendet oder verkauft werden, gibt es immer noch die Gefahr von Datendiebstahl – wie zum Beispiel, als vor einigen Jahren beim bislang größten bekannten Datenhack Informationen zu allen drei Milliarden Yahoo-Accounts geleakt wurden.
Letztendlich stehen wir beim KI-Privatsphärendilemma also vor der vermeintlich richtunggebenden Entscheidung, entweder leistungsfähige, präzise KI-Modelle unter möglichen Datenschutzverletzungen mit potenziell eklatanten Auswirkungen oder aber ungenaue, datenschutzkonforme KI-Modelle zu entwickeln.
Unüberschaubare Datenmengen und Allgegenwärtigkeit von KI
Schauen wir uns deshalb einen Moment die einzelnen Aspekte genauer an. Es ist mittlerweile ein Gemeinplatz, dass wir immer schneller, immer größere Datenmengen produzieren. Dieses abstrakte Wissen lässt sich durch einige beispielhafte Zahlen besser verdeutlichen:
Die beliebte Infografik „What happens in an internet minute“ zeigt auch das jährliche Datenwachstum im Internet auf. Zählten die zwei Marketingspezialisten Lori Lewis und Chadd Callahan in der ersten Edition 2017 noch 156 Millionen E-Mails, 4,1 Millionen Youtube-Videos und 3,5 Millionen Google-Suchen, stiegen die Zahlen für 2020 auf 190 Millionen E-Mails, 4,7 Millionen Youtube-Videos und 4,1 Millionen Google-Suchen. Wer sich mit offiziellen Statistiken wohler fühlt, kann sich alternativ auch die Datenstrategie der EU anschauen. Hiernach rechnet die EU für den Zeitraum 2018 bis 2025 mit einem Anstieg von 539 Prozent des globalen Datenvolumens – von 33 Zettabyte auf 175 Zettabyte.
Gleichzeitig können wir KI nicht mehr aus unserem Leben verbannen – denn sie ist längst da. KI erleichtert bereits an vielen Stellen unseren Alltag, selbst wenn wir sie nicht direkt wahrnehmen. Sie unterstützt unsere Suchen im Internet, zeigt uns den schnellsten Weg zu unserem Ziel, erleichtert Forschern ihre Arbeit, nimmt uns lästige Routinearbeiten ab, übersetzt und korrigiert Texte oder braut mittlerweile gar eigenes Bier, erstellt Glückskekssprüche und komponiert Musik. Egal, ob es sich dabei um essenzielle Aufgaben oder vermeintliche Spaßprojekte handelt, bereits diese kurze Aufzählung verdeutlicht, wie omnipräsent KI mittlerweile geworden ist.
Wie können wir das KI-Privatsphärendilemma überwinden?
Zusammengefasst bedeutet das: Wir können das Rad nicht mehr zurückdrehen und KI aus unserem Leben verbannen oder die Produktion von riesigen Datenmengen aufhalten. Wir können allerdings auf technischer Seite Lösungen finden, die Datenschutz mit KI vereinbaren. Dazu gibt es bislang drei grundlegende Stränge, die an unterschiedlichen Punkten der KI-Entwicklung ansetzen. Bei den ersten beiden – der Datenanonymisierung und der homomorphen Verschlüsselung – werden die für das Training gesammelten Daten auf die ein oder andere Weise verändert, bevor sie zentral verarbeitet werden.
Ein Beispiel für Datenanonymisierungsmethoden, das die Chancen und Risiken gut verdeutlicht, ist die sogenannte Differential Privacy. Hier werden die Originaldaten statistisch leicht verändert und anschließend zentral verarbeitet. Dieses Verfahren hat den Vorteil, dass es relativ einfach umsetzbar, recht verbreitet und vielfältig anwendbar ist. Dennoch kann Differential Privacy streng genommen eher nur eine Überbrückungstechnologie sein; unter anderem deshalb, weil Personendaten rückberechnet werden können – zum Beispiel durch die Verknüpfung verschiedener Datenbanken. Außerdem verbessern sich parallel zu den Anonymisierungstechniken natürlich auch die Deanonynmisierungstechnologien. Was heute noch Daten schützt, ist morgen eventuell nicht mehr sicher. Unterm Strich ist diese Methode deshalb mit Vorsicht zu genießen.
Eine andere Methode, die Hoffnungen weckt, ist die sogenannte homomorphe Verschlüsselung. Dabei werden Daten auf den Geräten selbst verschlüsselt, gesammelt und dann zentral in verschlüsselter Form verarbeitet. Die allgemeine Verbreitung dieser Methode hakt bislang allerdings noch daran, dass dafür beträchtliche Rechenressourcen gebraucht werden.
Bringt die Algorithmen zu den Daten und nicht die Daten zu den Algorithmen
Der dritte Lösungsansatz, um KI und Datenschutz miteinander zu vereinbaren, setzt einen Schritt vorher an: Statt die Daten zu den Algorithmen zu bringen, werden die Algorithmen zu den Daten gebracht. Datenschutz und der Schutz der Privatsphäre werden damit von Anfang an in die KI direkt mit eingebaut. Dieser alternative, dezentrale Ansatz nennt sich Edge-Computing beziehungsweise Federated Learning. Die Nutzerdaten bleiben hier stets auf den Endgeräten und trainieren direkt vor Ort lokale KI-Modelle. Diese Modelle werden anschließend verschlüsselt und zusammengeführt.
Der Knackpunkt ist, dass die eigentlichen Nutzerdaten niemals die Endgeräte verlassen – und damit die Privatsphäre der Nutzer komplett gewahrt bleibt. Das spart auch Ressourcen, da nicht mehr große Datenmengen verschickt werden. Dieser dezentrale Ansatz ist damit nicht nur resilienter, sondern auch noch besser geschützt gegen Zugriffe von außen. Denn potenzielle Angreifer müssten eine Vielzahl an unterschiedlichen Geräten gleichzeitig unter Beschuss nehmen, um erfolgreich zu sein.
Buridans Esel mit Möhren füttern statt mit Heuhaufen
Unsere bisherigen Systeme sind bislang noch stark von zentralistischen Denkansätzen geprägt; dezentrale KI-Ansätze einzuführen, erfordert deshalb ein grundsätzliches Umdenken und Infragestellen des bisherigen Status quo. Wirft man einen Blick über den Tellerrand in die Zukunft, erkennt man allerdings schnell, dass sich das Blatt für die bislang geläufigen zentralistischen Ansätze gerade wendet. So geht zum Beispiel die bereits zitierte Datenstrategie der EU davon aus, dass bis zum Jahr 2025 80 Prozent der globalen Datenmengen auf Endgeräten verarbeitet werden.
Mit dezentralen KI-Modellen ist der Schutz der Privatsphäre nicht einfach nur ein nachträglich aufgestülpter Umstand, sondern von Anfang an in die KI integriert. International wird bereits an unterschiedlichen Stellen an solch zukunftsweisenden und resilienten Ansätzen geforscht und entwickelt – wie beispielsweise an datenschutzkonformen KI-Modellen für das Gesundheitswesen. Für die Zukunft des Daten- und Privatsphärenschutzes sind das sehr gute Nachrichten. Denn so müssen wir als Entwickler und Nutzer nicht mehr wie Buridans sprichwörtlicher Esel zwischen zwei Heuhaufen der schlechten Auswahlmöglichkeiten verhungern. Stattdessen ermöglichen diese neuen technologischen Ansätze eine Auflösung der reinen Entweder-oder-Zwickmühle in ein Sowohl-als-auch – und wir können präzise, leistungsfähige KI mit eingebautem Schutz der Privatsphäre erhalten.

Leif-Nissen Lundbæk

Dr. Leif-Nissen Lundbæk ist Mitgründer und CEO des Technologieunternehmens XAIN AG. Er studierte Mathematik und Software Engineering in Berlin, Heidelberg sowie Oxford und erhielt seinen Ph.D. am Imperial College London.

Read More