Geschäft

Sehen Sie, wie real KI-generierte Bilder geworden sind



Sehen ist schon lange nicht mehr glauben. Fotos wurden gefälscht und manipuliert fast so lange es die Fotografie gibt.

Jetzt ist nicht einmal die Realität erforderlich, damit Fotos authentisch aussehen – nur künstliche Intelligenz, die auf eine Aufforderung reagiert. Selbst Experten haben manchmal Schwierigkeiten zu sagen, ob einer echt ist oder nicht. Kanst du?

Das schnelle Aufkommen künstlicher Intelligenz hat Alarm ausgelöst, dass die Technologie, mit der Menschen ausgetrickst werden, viel schneller voranschreitet als die Technologie, die die Tricks identifizieren kann. Tech-Unternehmen, Forscher, Fotoagenturen und Nachrichtenorganisationen bemühen sich, aufzuholen, und versuchen, Standards für die Herkunft und das Eigentum von Inhalten zu etablieren.

Die Fortschritte schüren bereits Desinformation und werden genutzt, um politische Spaltungen zu schüren. Autoritäre Regierungen haben scheinbar realistische Nachrichtensender geschaffen, um ihre politischen Ziele voranzutreiben. Letzten Monat fielen einige Leute auf Bilder herein, die Papst Franziskus zeigten, wie er eine bauschige Balenciaga-Jacke anzog und wie ein Erdbeben den pazifischen Nordwesten verwüstete, obwohl keines dieser Ereignisse stattgefunden hatte. Die Bilder wurden mit Midjourney, einem beliebten Bildgenerator, erstellt.

Als sich der frühere Präsident Donald J. Trump am Dienstag bei der Staatsanwaltschaft von Manhattan stellte, um Anklage zu erheben, tauchten auf Reddit Bilder auf, die von künstlicher Intelligenz generiert wurden und den Schauspieler Bill Murray als Präsidenten im Weißen Haus zeigten. Ein weiteres Bild, das Herrn Trump zeigt, wie er vor einer großen Menschenmenge mit amerikanischen Flaggen im Hintergrund marschiert, wurde schnell auf Twitter erneut geteilt, ohne die Offenlegung, die den ursprünglichen Beitrag begleitet hatte, und stellte fest, dass es sich nicht wirklich um ein Foto handelte.

Experten befürchten, dass die Technologie eine Erosion des Vertrauens in die Medien, in die Regierung und in die Gesellschaft beschleunigen könnte. Wenn jedes Bild hergestellt – und manipuliert – werden kann, wie können wir dann alles glauben, was wir sehen?

„Die Tools werden besser, sie werden billiger, und es wird der Tag kommen, an dem man nichts glauben kann, was man im Internet sieht“, sagte Wasim Khaled, Geschäftsführer von Blackbird.AI, einem Unternehmen, das hilft Kunden bekämpfen Desinformation.

Künstliche Intelligenz ermöglicht es praktisch jedem, komplexe Kunstwerke zu erstellen, wie diese jetzt Ausstellungsstück in der Gagosian Art Gallery in New York oder lebensechte Bilder, die die Grenze zwischen Realität und Fiktion verwischen. Fügen Sie eine Textbeschreibung ein, und die Technologie kann ein entsprechendes Bild erzeugen – es sind keine besonderen Fähigkeiten erforderlich.

Oft gibt es Hinweise darauf, dass virale Bilder von einem Computer erstellt und nicht im wirklichen Leben aufgenommen wurden: Der luxuriös gekleidete Papst hatte zum Beispiel eine Brille, die mit seiner Wange zu schmelzen schien, und verschwommenen Fingern. KI-Kunstwerkzeuge produzieren auch oft unsinnigen Text. Hier sind einige Beispiele:

Schnelle Fortschritte in der Technologie beseitigen jedoch viele dieser Mängel. Die neueste Version von Midjourney, die letzten Monat veröffentlicht wurde, ist in der Lage, realistische Hände darzustellen, eine Leistung, die sich den frühen Imaging-Tools auffallend entzogen hatte.

Tage bevor Herr Trump sich in New York City einer Strafanzeige stellte, kursierten Bilder von seiner „Verhaftung“ in den sozialen Medien. Sie wurden von Eliot Higgins, einem britischen Journalisten und Gründer von Bellingcat, einer Open-Source-Ermittlungsorganisation, erstellt. Er benutzte Midjourney, um sich die Verhaftung, den Prozess, die Inhaftierung des ehemaligen Präsidenten in einem orangefarbenen Overall und die Flucht durch einen Abwasserkanal vorzustellen. Er hat die Bilder auf Twitter gepostet und sie eindeutig als Kreationen gekennzeichnet. Sie wurden seitdem weit verbreitet.

Die Bilder sollten niemanden täuschen. Stattdessen wollte Mr. Higgins die Aufmerksamkeit auf die Leistungsfähigkeit des Tools lenken – sogar in den Kinderschuhen.

Die Bilder von Midjourney, sagte er, seien in der Lage gewesen, die Musterung in Gesichtserkennungsprogrammen zu bestehen, die Bellingcat verwendet, um Identitäten zu überprüfen, typischerweise von Russen, die Verbrechen oder andere Missbräuche begangen haben. Es ist nicht schwer vorstellbar, dass Regierungen oder andere schändliche Akteure Bilder herstellen, um ihre Feinde zu belästigen oder zu diskreditieren.

Gleichzeitig, sagte Herr Higgins, habe das Tool auch Mühe, überzeugende Bilder mit Menschen zu erstellen, die nicht so häufig fotografiert werden wie Herr Trump, wie der neue britische Premierminister Rishi Sunak oder der Komiker Harry Hill, „die ist außerhalb Großbritanniens wahrscheinlich nicht so bekannt.“

Midjourney war jedenfalls nicht amüsiert. Das Konto von Herrn Higgins wurde ohne Erklärung gesperrt, nachdem sich die Bilder verbreitet hatten. Das Unternehmen reagierte nicht auf Anfragen nach Kommentaren.

Die Grenzen generativer Bilder machen sie für Nachrichtenorganisationen oder andere, die auf das Risiko eingestimmt sind, relativ leicht zu erkennen – zumindest vorerst.

Dennoch, Bildagenturen, staatliche Aufsichtsbehörden und ein Handelsgruppe Musikindustrie haben sich bemüht, ihre Inhalte vor unbefugter Nutzung zu schützen, aber die leistungsstarke Fähigkeit der Technologie zur Nachahmung und Anpassung erschwert diese Bemühungen.

Einige KI-Bildgeneratoren haben sogar Bilder reproduziert – eine mulmige „Twin Peaks“-Hommage; Will Smith isst eine Handvoll Nudeln – mit verzerrten Versionen der Wasserzeichen, die von Unternehmen wie Getty Images oder Shutterstock verwendet werden.

Im Februar beschuldigte Getty Stability AI, mehr als 12 Millionen Getty-Fotos zusammen mit Bildunterschriften und Metadaten illegal kopiert zu haben, um die Software hinter seinem Stable Diffusion-Tool zu trainieren. In seiner Klage argumentierte Getty, dass Stable Diffusion den Wert des Getty-Wasserzeichens verwässere, indem es in Bilder integriert werde, die „vom Bizarren bis zum Grotesken“ reichten.

Getty sagte, der „dreiste Diebstahl und Freeriding“ sei „in einem erstaunlichen Ausmaß“ durchgeführt worden. Stability AI antwortete nicht auf eine Bitte um Stellungnahme.

Die Klage von Getty spiegelt die Bedenken vieler einzelner Künstler wider – dass KI-Unternehmen zu einer Wettbewerbsbedrohung werden, indem sie Inhalte kopieren, für deren Verwendung sie keine Erlaubnis haben.

Markenverletzungen sind ebenfalls zu einem Problem geworden: Künstlich erzeugte Bilder haben das Pfauenlogo von NBC nachgebildet, wenn auch mit unverständlichen Buchstaben, und das bekannte kurvige Logo von Coca-Cola mit zusätzlichen O’s im Namen gezeigt.

Im Februar wies das US Copyright Office künstlich erzeugte Bilder auf, als es den Fall „Zarya of the Dawn“ bewertete, ein 18-seitiges Comicbuch, das von Kristina Kashtanova mit von Midjourney erstellter Kunst geschrieben wurde. Der Regierungsverwalter beschloss, den Text des Comics urheberrechtlich zu schützen, nicht jedoch seine Kunst.

„Aufgrund der erheblichen Distanz zwischen dem, was ein Benutzer Midjourney anweisen kann, zu erstellen, und dem visuellen Material, das Midjourney tatsächlich produziert, fehlt es den Midjourney-Benutzern an ausreichender Kontrolle über die generierten Bilder, um als ‚Mastermind’ hinter ihnen behandelt zu werden“, erklärte das Büro in seiner Entscheidung.

Die Bedrohung für Fotografen überholt schnell die Entwicklung des Rechtsschutzes, sagte Mickey H. Osterreicher, General Counsel der National Press Photographers Association. Redaktionen werden zunehmend Schwierigkeiten haben, Inhalte zu authentifizieren. Social-Media-Nutzer ignorieren Etiketten, die Bilder eindeutig als künstlich erzeugt kennzeichnen, und entscheiden sich dafür, zu glauben, dass es sich um echte Fotos handelt, sagte er.

Generative KI könnte auch die Produktion gefälschter Videos erleichtern. Diese Woche erschien online ein Video, das Nina Schick, eine Autorin und Expertin für generative KI, zu zeigen schien, die erklärte, wie die Technologie „eine Welt erschuf, in der Schatten mit dem Echten verwechselt werden“. Frau Schicks Gesicht glitzerte dann, als die Kamera zurückgefahren wurde und an ihrer Stelle ein Körperdouble zeigte.

Das Video erklärte, dass der Deepfake mit der Zustimmung von Frau Schick von der niederländischen Firma Revel.ai und Truepic, einem kalifornischen Unternehmen, das eine breitere Überprüfung digitaler Inhalte untersucht, erstellt worden war.

Als „ersten digital transparenten Deepfake“ bezeichneten die Unternehmen ihr Video, das mit einem Stempel als computergeneriert gekennzeichnet ist. Die Daten werden kryptografisch in der Datei versiegelt; Eine Manipulation des Bildes bricht die digitale Signatur und verhindert, dass die Anmeldeinformationen angezeigt werden, wenn vertrauenswürdige Software verwendet wird.

Die Unternehmen hoffen, dass das Abzeichen, das für kommerzielle Kunden kostenpflichtig ist, von anderen Erstellern von Inhalten übernommen wird, um einen Vertrauensstandard für KI-Bilder zu schaffen.

„Das Ausmaß dieses Problems wird sich so schnell beschleunigen, dass es die Verbraucheraufklärung sehr schnell vorantreiben wird“, sagte Jeff McGregor, Chief Executive von Truepic.

Truepic ist Teil der Coalition for Content Provenance and Authenticity, einem Projekt, das durch eine Allianz mit Unternehmen wie Adobe, Intel und Microsoft ins Leben gerufen wurde, um die Ursprünge digitaler Medien besser nachzuvollziehen. Das teilte der Chiphersteller Nvidia mit Im vergangenen Monat dass es mit Getty zusammenarbeitet, um dabei zu helfen, „verantwortungsbewusste“ KI-Modelle unter Verwendung von Gettys lizenzierten Inhalten zu trainieren, wobei Lizenzgebühren an Künstler gezahlt werden.

Am selben Tag stellte Adobe sein eigenes Produkt zur Bildgenerierung, Firefly, vor, das nur mit lizenzierten oder aus dem eigenen Bestand stammenden oder nicht mehr urheberrechtlich geschützten Bildern trainiert wird. Dana Rao, Chief Trust Officer des Unternehmens, sagte auf seiner Website dass das Tool automatisch Inhaltsnachweise hinzufügt – „wie eine Nährwertkennzeichnung für die Bildgebung“ – die identifiziert, wie ein Bild erstellt wurde. Adobe sagte, es plane auch, Mitwirkende zu entschädigen.

Letzten Monat das Model Chrissy Teigen schrieb auf Twitter dass sie von der bauschigen Jacke des Papstes getäuscht worden war, und fügte hinzu, dass „ich auf keinen Fall die Zukunft der Technologie überleben werde“.

Letzte Woche, A Reihe neuer KI-Bilder zeigte den Papst, wieder in seiner gewohnten Robe, ein hohes Glas Bier genießend. Die Hände sahen größtenteils normal aus – abgesehen vom Ehering am Ringfinger des Papstes.

Zusätzliche Produktion von Jeanne Noonan DelMundo, Aaron Krolik und Michael André.





Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button