ChatGPT-Verbot in Italien

Ist eine Einschränkung auch in Deutschland denkbar?

Die italienische Datenschutzbehörde hat Bedingungen für den Betrieb von ChatGPT in Italien gestellt, nachdem der Zugang zu ChatGPT aufgrund von Datenschutzbedenken vorübergehend gesperrt wurde. Bis zum 30. April muss das kalifornische Unternehmen OpenAI einer Liste von Forderungen nachkommen, um die vorläufigen Beschränkungen für die Verwendung der Daten italienischer Nutzer aufzuheben. Einige der Bedingungen: OpenAI muss die Betroffenenrechte wahren und Nutzer unter 13 Jahren dürfen ChatGPT ohne Einverständniserklärung der Eltern nicht nutzen. OpenAI muss auch eine entsprechende Altersprüfung planen. Die italienische Datenschutzbehörde fordert außerdem, dass OpenAI die Nutzer in Italien über die Methoden der Datenverarbeitung informiert und Tools bereitstellt, mit denen Nutzer der Datenverarbeitung widersprechen können.

Kritik aus Spanien, Kanada, Südkorea und den USA

Italien ist nicht das einzige Land, dass ChatGPT kritisch sieht.
Die spanische Datenschutzbehörde hat die EU-Datenschutzbehörde gebeten, Datenschutzbedenken im Zusammenhang mit ChatGPT zu prüfen. Kanada hat ebenfalls eine Untersuchung gegen OpenAI eingeleitet, da das Unternehmen möglicherweise unerlaubt Daten erhebt und verarbeitet. Der oberste kanadische Datenschützer, Philippe Dufresne, betonte die Priorität der Privatsphäre bei der Nutzung von KI-Technologie. Die Untersuchung reagiert auf eine Beschwerde über die Erhebung, Verwendung und Offenlegung personenbezogener Daten ohne Zustimmung. Derzeit werden keine weiteren Details dazu bekannt gegeben. Erst im März hatte OpenAI einen Fehler behoben, durch den Nutzern Daten anderer Personen angezeigt werden konnten.
IT-Unternehmen in Südkorea befürchten, dass Geschäftsgeheimnisse an die Öffentlichkeit gelangen könnten, wenn ihre Mitarbeiter ChatGPT nutzen, um beispielsweise ihre Meetings zu organisieren. Unternehmen in Südkorea bemühen sich daher, ihre eigenen Richtlinien für die Verwendung von ChatGPT und anderen Chatbot-KI-Diensten aufzustellen, um Bedenken hinsichtlich Datenlecks zu begegnen. Unternehmen wie Samsung, SK, LG und POSCO berufen sich dabei auf Beispiele von ausländischen Unternehmen, die aufgrund von Datenschutzbedenken die Verwendung von ChatGPT am Arbeitsplatz blockieren. Viele südkoreanische Unternehmen schulen ihre Mitarbeiter in den Risiken, die mit dem Missbrauch solcher Programme einhergehen, und führen firmeninterne Kampagnen zur Förderung des angemessenen Einsatzes von KI-Diensten durch. Anfang April war bekannt geworden, dass Ingenieure bei Samsung Semiconductor sensible Daten an ChatGPT gesendet haben, um sich die Arbeit zu erleichtern. Private Unternehmen werden aufgefordert, Richtlinien zu erstellen, um Datenlecks zu vermeiden, während einige Universitäten ebenfalls Diskussionen über Richtlinien führen, um zu verhindern, dass Studenten ChatGPT für ihre Aufgaben missbrauchen.

Kein ChatGPT-Verbot in Deutschland in Sicht

Laut einem Bericht des „Handelsblatts“ lehnt das Bundesdigitalministerium eine Blockade von ChatGPT wie in Italien ab. Ein Sprecher des Ministeriums sagte, dass kein Verbot von KI-Anwendungen notwendig sei. Stattdessen müssten Wege gefunden werden, um Werte wie Demokratie und Transparenz zu gewährleisten. Die geplanten EU-Rechtsrahmen könnten Europa zum weltweiten Vorreiter für vertrauensvolle KI machen. Auch der Chef der Agentur für Sprunginnovationen (SprinD), Rafael Laguna de la Vera, ist gegen ein Verbot: „Man kann solche digitalen Technologie-Entwicklungen nicht mit Verboten aufhalten, dann finden sie nur woanders statt.“ Stattdessen sollte Deutschland an den Entwicklungen teilhaben: „Wir sind mitten in einer Disruption. Besser man macht sich schlau, nimmt teil und entwickelt sie zu dem, was man haben will und verhindert dann gezielt, was nicht.“
Die Ergebnisse dieser Entwicklungen können aktuell nur erahnt werden. Experten aus aller Welt fordern neue Vorschriften zur KI-Regulierung aufgrund der Persönlichkeiten wie Elon Musk und Steve Wozniak forderten im März eine Zwangspause für die Arbeit an KI-Modellen, um sicherzustellen, dass die KI zum Wohle der Menschheit beiträgt. Klar ist, dass Nutzer keine sensiblen Daten mit ChatGPT teilen sollten. Das gilt nicht nur vor Privatpersonen, sondern insbesondere für den Datenschutz in Unternehmen. Ob und in welchem Umfang ChatGPT im Beruf genutzt werden darf, liegt in Deutschland aktuell noch im Ermessen jedes einzelnen Unternehmens.

Ihr Unternehmen hat mehr als 50 Mitarbeiter und Sie sind zum Hinweisgeberschutz verpflichtet. Lassen Sie sich zur Rechtslage nach dem Hinweisgeberschutzgesetz (HinSchG) beraten. Mit der Implementierung eines Hinweisgebersystem geben Sie Hinweisgebenden anonym die Möglichkeit Compliance-Verstöße zu melden und Ihr Unternehmen profitiert durch eine von Offenheit und Ehrlichkeit geprägten Unternehmenskultur.
Müssen Sie die Datenschutzrechtlichen Bestimmungen in Ihrem Unternehmen einhalten und benötigen Hilfe bei der Erstellung des Verzeichnisses von Verarbeitungstätigkeiten (VVT). Frank Müns hilft Ihnen als TÜV-zertifizierter Datenschutzbeauftragter durch persönliche Beratung und einer gesetzeskonformen Datenschutzorganisation. Neben seiner langjährigen Erfahrung in der Umsetzung der Datenschutz-Grundverordnung (DSGVO) und dem Bundesdatenschutzgesetz (BDSG) sorgt Frank Müns als Geschäftsführer der Immerce Consulting GmbH für Diskretion, Professionalität und Sorgfalt. Ebenso profitieren Sie durch seine Expertise im Bereich IT Sicherheit nach ISO 27001 sowie BSI Grundschutz. Durch ständige Fortbildungen und Zertifizierungen ist Frank Müns immer up-to-date was Ihre Beratung betrifft.

Kontakt
Immerce Consulting GmbH
Frank Müns
Kemptener Straße 9
87509 Immenstadt
+49 (0) 8323 – 209 99 40
bcd53a6970541cdd2809148b126d87eef67223db
https://www.immerce-consulting.de/

Die Bildrechte liegen bei dem Verfasser der Mitteilung.