Verbot: Italiens Datenschutzbehörde untersagt Chat-GPT

0

In Italien wird die KI-Anwendung Chat-GPT ab sofort verboten, um mögliche Verstöße gegen Datenschutzbestimmungen zu verhindern. Die Datenschutzbehörde hat insbesondere entschieden, dass Chat-GPT keine Nutzerdaten aus Italien mehr verarbeiten darf. Zusätzlich dazu hat die Behörde Ermittlungen gegen die Anwendung eingeleitet, um mögliche Datenschutzverletzungen zu untersuchen und gegebenenfalls Konsequenzen zu ziehen.

Italien erhebt Vorwürfe gegen das erfolgreiche StartUp von Sam Altman

Die italienischen Behörden haben den Chatbot Chat-GPT des amerikanischen Unternehmens Open AI vorübergehend gesperrt. Die italienische Datenschutzbehörde hat mitgeteilt, dass dem Unternehmen mit sofortiger Wirkung verboten worden sei, Nutzerdaten aus Italien zu verarbeiten. Zusätzlich wurden Ermittlungen eingeleitet. Die genauen Hintergründe für die Sperre wurden bisher nicht bekannt gegeben.

Die italienische Datenschutzbehörde hat dem Startup Chat-GPT vorgeworfen, keine ausreichenden Informationen über die gespeicherten Nutzerdaten bereitzustellen und keine rechtliche Grundlage für die Datensammlung und -speicherung zu haben. Das Unternehmen hat zudem keine angemessenen Filter oder Sperren für Kinder unter 13 Jahren implementiert, obwohl dies laut den Geschäftsbedingungen erforderlich ist. Die Behörde hat das Verbot der Verarbeitung von Nutzerdaten aus Italien verhängt und eine Untersuchung des Vorfalls eingeleitet.

In Italien ist Chat-GPT noch zugänglich

Gemäß Guido Scorza, einem Sprecher der italienischen Datenschutzbehörde, muss Open AI als Herstellerfirma von Chat-GPT der Anordnung folgen und alle Zugriffe aus dem italienischen Internet blockieren. Die Sperre wurde ausgesprochen, weil die Anwendung gegen italienisches Datenschutzrecht verstößt. Obwohl die Sperre vorübergehend ist, wird berichtet, dass Nutzer in Italien die Anwendung weiterhin nutzen können, da die Umsetzung des Verbots noch nicht abgeschlossen ist.

Nachdem die italienische Datenschutzbehörde Chat-GPT die Verarbeitung von Nutzerdaten aus Italien verboten hat, muss Open AI nun innerhalb von 20 Tagen eine Lösung präsentieren, um die Probleme zu beheben. Sollte das Unternehmen dies nicht schaffen, droht ihm eine hohe Geldstrafe von bis zu 20 Millionen Euro oder bis zu 4 Prozent des Jahresumsatzes. Die Behörde zeigt damit, dass sie entschlossen ist, den Schutz von Nutzerdaten zu gewährleisten und Unternehmen, die sich nicht an die Datenschutzbestimmungen halten, mit harten Strafen zu belegen.

Die italienische Datenschutzbehörde hat nach einer Datenpanne vom 20. März beschlossen, die KI-Anwendung Chat-GPT zu verbieten, Nutzerdaten aus Italien zu verarbeiten. Die Software hatte einen Fehler aufgewiesen, der dazu führte, dass einige Nutzer Zugriff auf Informationen fremder Nutzer erhielten. Konkret handelte es sich dabei um Ausschnitte aus Konversationen mit dem Chatbot sowie Kontakt- und Zahlungsinformationen. Die Datenschutzbehörde hat daraufhin Ermittlungen eingeleitet, um den Vorfall zu untersuchen und sicherzustellen, dass ähnliche Vorfälle in Zukunft vermieden werden.

Aufgrund mangelnder Transparenz bei der Verarbeitung von Nutzerdaten hat die italienische Datenschutzbehörde ein Verbot der KI-Anwendung Chat-GPT ausgesprochen. Der Betreiber Open AI habe nicht ausreichend darüber informiert, was mit den Daten passiere. Insbesondere in heiklen Bereichen verbieten Banken und andere Unternehmen daher ihren Mitarbeitern teilweise den Einsatz von Chat-GPT. Die Behörde hat zudem Ermittlungen eingeleitet, um die Praktiken von Open AI genauer unter die Lupe zu nehmen.

„Erfüllte Open AI alle rechtlichen Anforderungen für die Trainingsdaten?“

Die italienische Datenschutzbehörde hat am Freitag bekannt gegeben, dass die KI-Anwendung Chat-GPT ab sofort verboten wird, Nutzerdaten aus Italien zu verarbeiten. Die Vorwürfe der Behörde gehen jedoch über die Verarbeitung von Nutzerdaten hinaus. Sie fordert von Open AI eine Transparenzoffensive, um die Daten, die zur Schulung des Algorithmus genutzt wurden, offenzulegen. Es wird vermutet, dass personenbezogene Daten durch die Lerntexte in die Entwicklung des Chatbots eingeflossen sind. Die Behörde fordert nun eine Erklärung von Open AI darüber, wie diese Daten gesammelt wurden und ob sie überhaupt zur Nutzung berechtigt waren.

Chat-GPT wurde von der italienischen Datenschutzbehörde vorgeworfen, in einigen Fällen falsche Informationen über Personen zu verbreiten. Dadurch werde eine ungenaue Verwendung von Daten begünstigt, was eine Verletzung der Datenschutzrechte der Nutzerinnen und Nutzer darstelle. Zudem wurde kritisiert, dass Open AI nicht in der Lage war, das Alterslimit von 13 Jahren durch geeignete Filter umzusetzen. Dies führe dazu, dass auch Minderjährige Zugang zu der Anwendung haben und ihre Daten möglicherweise unangemessen genutzt werden.

Urheberrechtsklagen: OpenAI im Visier der Justiz

Seit seiner Veröffentlichung im November 2022 hat der Chatbot Chat-GPT weltweit eine enorme Beliebtheit erlangt. Mit seinen Fähigkeiten, auf Fragen zu antworten, Texte zu summarisieren und sogar Programmiercode zu schreiben, ist die Anwendung vielseitig einsetzbar. Innerhalb weniger Tage konnte der Chatbot mehr als 100 Millionen Nutzer auf der ganzen Welt erreichen und wird weiterhin von vielen Nutzern genutzt.

Der Chatbot hat seine Fähigkeiten durch das Analyse von etwa 360 Milliarden Wörtern Trainingstexten erworben. OpenAI hatte Zugang zu diesen Textmengen, weil Unternehmen sie mit sogenannten Crawlern aus dem Internet gesammelt haben. Die Texte umfassen Zeitungsartikel, Wikipedia-Einträge und auch Beiträge in Online-Foren. Das intensive Training des Chatbots ermöglichte ihm, die Sprache zu analysieren und zu verstehen, um dann menschenähnliche Konversationen führen zu können.

Mit dem Verbot der Verarbeitung von Nutzerdaten durch Chat-GPT in Italien gibt es einen möglichen Konflikt zwischen dem Datenschutz- und dem Urheberrecht. Die Entscheidung der italienischen Datenschutzbehörde könnte andere Länder dazu veranlassen, ähnliche Maßnahmen zu ergreifen. Gleichzeitig hat eine Sammelklage gegen Open AI, Microsoft und Github begonnen, in der es um das Lernen von Code durch den Programmier-Assistenten Copilot geht. Dies könnte Auswirkungen auf die Zukunft von KI-Anwendungen haben.

Lassen Sie eine Antwort hier