(openPR) UIMC warnt vor Risiken im Spannungsfeld von KI und personenbezogenen Daten
Die zunehmende Verbreitung von Künstlicher Intelligenz (KI) in Unternehmen eröffnet neue Möglichkeiten zur Effizienzsteigerung, Entscheidungsunterstützung und Innovation. Gleichzeitig steht die Nutzung von KI im Spannungsfeld mit dem Schutz personenbezogener Daten. Viele Experten warnen vor möglichen Verstößen gegen die Datenschutz-Grundverordnung (DSGVO) und fordern Unternehmen dazu auf, KI-Anwendungen im Einklang mit den datenschutzrechtlichen Vorgaben einzusetzen. So auch die UIMC. „KI bietet Unternehmen enorme Chancen, birgt jedoch auch erhebliche Risiken für den Datenschutz. Gerade bei der Verarbeitung von personenbezogenen Daten sollten die Unternehmen keine Kompromisse eingehen“, erklärt Dr. Jörn Voßbein, Geschäftsführer der UIMC und erfahrener Datenschutzbeauftragter. „Die DSGVO gibt klare Regeln vor, wie Daten verarbeitet werden dürfen. Sobald KI-Systeme große Datenmengen auswerten, besteht die Gefahr, dass der Schutz von personenbezogenen Informationen zu kurz kommt. Hier müssen Unternehmen sehr sorgfältig vorgehen.“
Chancen: KI kann dazu beitragen, Prozesse zu automatisieren und Kundenservices zu verbessern. Auch Potentiale können durch KI-Systeme herausgearbeitet werden, die im Unternehmen genutzt werden können. „Es ist also sehr sinnvoll, sich mit dem potentiellen Nutzen von KI im eigenen Unternehmen auseinanderzusetzen,“ wie es auch der Datenschutzexperte Dr. Jörn Voßbein sieht.
Das fordert die DSGVO: Datenschutz durch Technikgestaltung und datenschutzfreundliche Voreinstellungen – sogenannte Privacy by Design und Privacy by Default – müssen auch im Bereich der Künstlichen Intelligenz berücksichtigt werden. Dies sind einerseits Forderungen an den KI-Systemhersteller und andererseits an die KI-System-einsetzende Unternehmen.
Hintergrund: KI-Systeme nutzen häufig personenbezogene Daten, um zu lernen und sich zu verbessern. Diese Daten werden oftmals aus unterschiedlichen Quellen zusammengeführt, um komplexe Muster zu erkennen und Vorhersagen zu treffen. Dabei kann es jedoch zu Datenschutzproblemen kommen, wenn beispielsweise Daten unsachgemäß gesammelt, kombiniert oder länger gespeichert werden, als es die datenschutzrechtlichen Vorgaben zulassen. Unternehmen, die KI einsetzen, müssen sicherstellen, dass personenbezogene Daten nur für die definierten Zwecke verwendet und nach Ablauf der zulässigen Fristen gelöscht werden.
Exemplarische Problemstellungen: Gerade die Zweckbindung ist aber beim Trainieren der KI-Systeme ein Problemfeld, was einsetzende Unternehmen lösen müssen, da der ursprüngliche Zweck (also das Ziel bzw. der Grund, warum die personenbezogenen Daten erhoben wurden) oftmals nicht mit den Trainingszwecken übereinstimmt. Aber auch die Transparenz muss bei den KI-Systemen sichergestellt werden, so dass einerseits nachvollziehbar ist, warum bestimmte Ergebnisse berechnet wurden, und andererseits muss gewährleistet werden, dass Betroffenenrechten wie Recht auf Auskunft und auf Löschung nachgekommen werden kann.
Risiken: Es lauern aber auch potenzielle Gefahren. So können KI-Systeme beispielsweise durch die Analyse personenbezogener Daten Rückschlüsse auf das Verhalten von Menschen ziehen, die weit über das hinausgehen, was der ursprüngliche Zweck der Datenerhebung war. Solche Eingriffe können die Privatsphäre der betroffenen Personen verletzen und demnach rechtliche Konsequenzen nach sich ziehen. Ein weiteres Risiko besteht in der sogenannten „Bias“, also der Voreingenommenheit von KI-Systemen. Da KI auf Basis historischer Daten trainiert wird, können unbewusste Diskriminierungen und Verzerrungen entstehen, wenn die zugrundeliegenden Daten bereits entsprechende Muster aufweisen. Dies kann im schlimmsten Fall zu diskriminierenden Entscheidungen führen – etwa bei der Kreditvergabe, der Bewerberauswahl oder bei Versicherungsabschlüssen.
Tipp: „Unternehmen müssen sich darüber im Klaren sein, dass fehlerhafte oder voreingenommene KI-Systeme nicht nur rechtliche, sondern auch Reputationsschäden verursachen können. Eine sorgfältige Überprüfung der genutzten Algorithmen und Trainingsdaten ist daher unerlässlich,“ rät Dr. Jörn Voßbein an. „Wir empfehlen, frühzeitig Datenschutzbeauftragte und IT-Experten in die Entwicklung von KI-Anwendungen einzubinden, um datenschutzkonforme Lösungen zu gewährleisten.“
Resümee: Für Unternehmen ist es entscheidend, die Vorteile von KI zu nutzen, ohne dabei den Datenschutz zu gefährden. Der Schutz personenbezogener Daten sollte als integraler Bestandteil von KI-Projekten betrachtet werden. Mit datenschutzfreundlichen Einstellungen und einer transparenten Datennutzung können Unternehmen sicherstellen, dass sie sowohl die Innovationskraft der KI nutzen als auch den Schutz der Privatsphäre aufrechterhalten, um dabei auch das Vertrauen der User und Betroffenen zu wahren. „Lieber im Rahmen des Einführungsprojekts etwas mehr in den Datenschutz aufwenden, als später mehr in Strafen und der Beseitigung des Reputationsverlusts investieren zu müssen,“ meint auch Geschäftsführer Dr. Jörn Voßbein.