Computer Nachrichten

Das neue Tool von OpenAI kann gefälschte Bilder erkennen, aber es gibt einen Haken

Durch künstliche Intelligenz (KI) erzeugte Bilder haben in den letzten Monaten für große Bestürzung gesorgt, und die Menschen befürchten verständlicherweise, dass sie zur Verbreitung von Fehlinformationen und zur Täuschung der Öffentlichkeit verwendet werden könnten. Nun arbeitet der ChatGPT-Hersteller OpenAI offenbar an einem Tool, das KI-generierte Bilder mit einer Genauigkeit von 99 % erkennen kann.

Laut Bloomberg ist das Tool von OpenAI darauf ausgelegt, von Benutzern erstellte Bilder auszurotten, die mit dem eigenen Bildgenerator Dall-E 3 erstellt wurden. Bei der Tech Live-Veranstaltung des Wall Street Journal behauptete Mira Murati, Chief Technology Officer bei OpenAI, dass das Tool „zu 99 % zuverlässig“ sei. Während die Technologie intern getestet wird, gibt es noch kein Veröffentlichungsdatum.

Das neue Tool von OpenAI kann gefälschte Bilder erkennen, aber es gibt einen HakenMattVidPro AI

Wenn es so genau ist, wie OpenAI behauptet, kann es der Öffentlichkeit möglicherweise die Gewissheit vermitteln, dass die Bilder, die sie sehen, entweder echt oder KI-generiert sind. Dennoch schien OpenAI nicht zu verraten, wie dieses Tool Menschen auf KI-Bilder aufmerksam machen wird, sei es durch die Verwendung eines Wasserzeichens, einer Textwarnung oder etwas anderem.

Es ist erwähnenswert, dass das Tool nur für die Erkennung von Dall-E-Bildern konzipiert ist und möglicherweise nicht in der Lage ist, Fälschungen zu erkennen, die von konkurrierenden Diensten wie Midjourney, Stable Diffusion und Adobe Firefly erstellt wurden. Das könnte seinen Nutzen im Großen und Ganzen einschränken, aber alles, was gefälschte Bilder hervorheben kann, könnte eine positive Wirkung haben.

Das neue Tool von OpenAI kann gefälschte Bilder erkennen, aber es gibt einen Haken

Kontinuierliche Entwicklung

Das neue Tool von OpenAI kann gefälschte Bilder erkennen, aber es gibt einen HakenDall-E / OpenAI

OpenAI hat in der Vergangenheit Tools auf den Markt gebracht, die darauf ausgelegt waren, Inhalte zu erkennen, die von seinen eigenen Chatbots und Generatoren zusammengestellt wurden. Anfang 2023 veröffentlichte das Unternehmen ein Tool, von dem es behauptete, dass es von ChatGPT erstellten Text erkennen könne. Es wurde jedoch nur wenige Monate später zurückgezogen, nachdem OpenAI zugegeben hatte, dass es äußerst ungenau sei.

LESEN  Dell verheimlicht etwas über das neue XPS 13

Neben dem neuen Bilderkennungstool diskutierte OpenAI auch die Versuche des Unternehmens, die Tendenz von ChatGPT zu „halluzinieren“ oder Unsinn und erfundene Informationen zu verbreiten, einzudämmen. „Wir haben bei der Halluzinationsproblematik mit GPT-4 große Fortschritte gemacht, aber wir sind noch nicht da, wo wir sein müssen“, sagte Murati und schlug vor, an GPT-5 zu arbeiten – dem Nachfolger von GPT-4 Modell, das ChatGPT zugrunde liegt, ist in vollem Gange.

Im März 2023 unterzeichnete eine Reihe führender Technologieunternehmen einen offenen Brief, in dem sie OpenAI aufforderten, die Arbeit an etwas Leistungsstärkerem als GPT-4 zu unterbrechen oder „erhebliche Risiken für die Gesellschaft und die Menschheit“ einzugehen. Es scheint, dass die Anfrage auf taube Ohren gestoßen ist.

Ob das neue Tool von OpenAI effektiver sein wird als sein letzter Versuch, der aufgrund seiner Unzuverlässigkeit abgebrochen wurde, bleibt abzuwarten. Sicher ist, dass die Entwicklungsarbeit trotz offensichtlicher Risiken zügig voranschreitet.

Ähnliche Artikel

Schaltfläche "Zurück zum Anfang"