Künstliche Intelligenz

Microsoft hat gerade versehentlich 38 TB private Daten freigegeben

Es wurde gerade bekannt, dass Microsoft-Forscher versehentlich 38 TB vertrauliche Informationen auf die GitHub-Seite des Unternehmens geleakt haben, wo sie potenziell jeder sehen konnte. Zu den Daten gehörte auch ein Backup der Workstations zweier ehemaliger Mitarbeiter, das Schlüssel, Passwörter, Geheimnisse und mehr als 30.000 private Teams-Nachrichten enthielt.

Nach Angaben des Cloud-Sicherheitsunternehmens Wiz wurde das Leck im GitHub-Repository für künstliche Intelligenz (KI) von Microsoft veröffentlicht und versehentlich in eine Tranche von Open-Source-Trainingsdaten aufgenommen. Das bedeutet, dass die Besucher dazu ermutigt wurden, es herunterzuladen, was bedeutet, dass es immer wieder in die falschen Hände geraten konnte.

Microsoft hat gerade versehentlich 38 TB private Daten freigegebenStock Depot / Getty Images

Datenschutzverletzungen können aus allen möglichen Quellen stammen, aber es wird für Microsoft besonders peinlich sein, dass diese von seinen eigenen KI-Forschern stammt. Im Wiz-Bericht heißt es, dass Microsoft die Daten mithilfe von Shared Access Signature (SAS)-Tokens hochgeladen hat, einer Azure-Funktion, mit der Benutzer Daten über Azure Storage-Konten teilen können.

Microsoft hat gerade versehentlich 38 TB private Daten freigegeben

Besucher des Repositorys wurden aufgefordert, die Trainingsdaten von einer bereitgestellten URL herunterzuladen. Die Webadresse ermöglichte jedoch den Zugriff auf viel mehr als nur die geplanten Trainingsdaten und ermöglichte den Benutzern das Durchsuchen von Dateien und Ordnern, die nicht öffentlich zugänglich sein sollten.

Volle Kontrolle

Microsoft hat gerade versehentlich 38 TB private Daten freigegebenSora Shimazaki / Pexels

Es wird schlimmer. Das Zugriffstoken, das all dies ermöglichte, war laut Wiz falsch konfiguriert, um vollständige Kontrollberechtigungen bereitzustellen, und nicht restriktivere Leseberechtigungen. In der Praxis bedeutete das, dass jeder, der die URL besuchte, die gefundenen Dateien löschen und überschreiben und nicht nur ansehen konnte.

Wiz erklärt, dass dies schlimme Folgen hätte haben können. Da das Repository voller KI-Trainingsdaten war, sollten Benutzer diese herunterladen und in ein Skript einspeisen, um so ihre eigenen KI-Modelle zu verbessern.

LESEN  ChatGPT moderiert möglicherweise illegale Inhalte auf Websites wie Facebook

Da es jedoch aufgrund seiner falsch konfigurierten Berechtigungen anfällig für Manipulationen sei, „hätte ein Angreifer bösartigen Code in alle KI-Modelle in diesem Speicherkonto einschleusen können, und jeder Benutzer, der dem GitHub-Repository von Microsoft vertraut, wäre damit infiziert worden“, sagt Wiz erklärt.

Mögliche Katastrophe

Microsoft hat gerade versehentlich 38 TB private Daten freigegebenDigitale Trends

Der Bericht stellte außerdem fest, dass die Erstellung von SAS-Tokens – die Zugriff auf Azure Storage-Ordner wie diesen gewähren – keinerlei Papierspuren erzeugt, was bedeutet, dass „ein Administrator keine Möglichkeit hat, zu wissen, dass dieses Token existiert und wo es zirkuliert.“ .“ Wenn ein Token wie dieses über Vollzugriffsberechtigungen verfügt, können die Folgen möglicherweise katastrophal sein.

Glücklicherweise erklärt Wiz, dass es das Problem im Juni 2023 an Microsoft gemeldet habe. Der undichte SAS-Token wurde im Juli ersetzt und Microsoft schloss seine interne Untersuchung im August ab. Die Sicherheitslücke wurde der Öffentlichkeit gerade erst gemeldet, um Zeit für die vollständige Behebung zu haben.

Es ist eine Erinnerung daran, dass selbst scheinbar harmlose Handlungen möglicherweise zu Datenschutzverletzungen führen können. Glücklicherweise wurde das Problem behoben, es ist jedoch nicht bekannt, ob Hacker vor der Entfernung Zugriff auf vertrauliche Benutzerdaten erhalten haben.

Ähnliche Artikel

Schaltfläche "Zurück zum Anfang"