dive deeper!

Zwischen Komfort und Kontrolle:
Wie viel Über­wa­chung erlauben wir der KI?

KI und Privatsphäre: Wie viel sollten wir preisgeben?

… und wieviel sieht KI wirklich?

In der letzten Woche stellte Microsoft eine neue Generation von Laptops vor. Diese Geräte sind mit einer Funktion ausgestattet, die »Recall« genannt wird und die alle fünf Sekunden einen Screen­shot erstellt. Ziel dieser Funktion ist es, den Benutzern die Möglichkeit zu geben, fast jede ihrer ver­gan­genen Aktivitäten aufzurufen – eine Funktion, die bis vor kurzem technisch undenkbar und aus Datenschutzgründen höchst problematisch gewesen wäre. Die Tatsache, dass nun jedes Detail unserer Bildschirmaktivität festgehalten wird, hätte früher eine Welle der Entrüstung ausgelöst. Heute wird uns versichert, dass diese Daten sicher und privat auf dem eigenen Gerät gespeichert bleiben.

Doch diese Versicherung führt uns direkt zu einer größeren und weit ernsteren Debatte: Wir haben uns an einen Tauschhandel gewöhnt – Privatsphäre gegen digitale Bequemlichkeit. Nehmen wir Google Maps: Niemand kann den Dienst nutzen, ohne seinen Standort preiszugeben. Ähnlich verhält es sich mit Diensten wie ChatGPT oder Midjourney – hier wird vorausgesetzt, dass wir die Nutzung riesiger Datenmengen, die aus dem Internet ge­sam­melt wurden, stillschweigend billigen.

Die großen Technologieunternehmen passen ihre Nutzungsbedingungen kontinuierlich an und sichern sich weitreichende Rechte zur Nutzung unserer privaten Daten für das Training ihrer Künstlichen Intelligenzen. Die Folgen dieser Praxis sind gravierend und betreffen die Privatsphäre jedes Einzelnen von uns. Und doch wird diese kritische Auseinan­der­setzung allzu oft in einem Wirrwarr aus juristischem Fachjargon und un­durch­sich­tigen Nutzungs­bedingungen begraben.

Es ist ein offenes Geheimnis, dass Firmen wie Google, Microsoft und Meta – um nur einige zu nennen – personenbezogene Daten in einem Ausmaß nutzen, das vielen von uns nicht einmal bewusst ist. Diese Datenverarbeitung ist nicht nur eine theoretische Überlegung, sie hat handfeste Auswirkungen: Firmen wie Clearview AI nutzen unsere Fotos, ohne uns zu fragen; andere Un­ter­nehmen könnten bald in der Lage sein, uns durch unsere Schreibstile oder andere digitale Fußabdrücke zu identifizieren.

Wer sich gegen diese Form des – salopp gesprochen – »Über­wachungs­ka­pi­talismus« zur Wehr setzen möchte, muss aktiv werden und darf sich nicht von den Verheißungen der Technologie­un­ter­nehmen einlullen lassen. Es ist falsch zu glauben, dass man nicht gleich­zeitig techno­lo­gischen Fortschritt und strenge Datenschutz­stan­dards haben kann. Es gibt keine Notwendigkeit, dass ein Un­ter­neh­men Zugang zu meinen Ge­sund­heitsdaten haben muss, nur weil ich eine Smart­watch trage. Diese Daten können und sollten lokal gespeichert werden, um meine Privatsphäre zu schützen.

Wir stehen an einem Wendepunkt, an dem entschieden werden muss, wie wir mit unseren Daten umgehen wollen. Es gibt bereits positive Entwicklungen in der Gesetzgebung, sowohl in den USA als auch in Europa, die hoffen lassen, dass wir den schlimmsten Auswirkungen der Daten­sammel­wut der Großkonzerne noch entgehen können.

Unsere Aufgabe ist es, wachsam zu bleiben und zu fordern, dass unsere Daten mit Respekt behandelt werden. Die Technologie sollte unser Leben erleichtern, ohne unsere grund­legenden Rechte zu untergraben. Es ist an der Zeit, dass wir uns diese Botschaft zu Herzen nehmen und entsprechend handeln.

Zurück

Hey, Du willst noch näher am KI Universum sein?
Dann schnuppere doch mal in unseren hey-i Newsletter rein!

Wir geben kuratierten Input, teilen unser Insiderwissen und zeigen Euch neueste Anwendungen und die wirklich relevanten Prompts und Tools.

Kostenlos. Inspirierend. Alle 2 Wochen neu.