Wie gehen Redaktionen mit KI-Bildern um? Wir haben nachgefragt …
1. Wie geht Ihre Redaktion/Agentur aktuell mit KI-generierten Bildern um und wie werden KI-Bilder redaktionell genutzt?
2. In welchen redaktionellen Bereichen können KI-Bilder sinnvoll eingesetzt werden – und in welchen nicht? Gibt es dazu ein internen Statut?
3. Wie garantiert Ihre Redaktion/Agentur, dass KI-generierte Bilder nicht als authentische Fotografien wahrgenommen werden können?
4. Wie stehen Sie zu einer Kennzeichnungspflicht und sollten KI-Bilder und/oder authentische Fotografien gekennzeichnet werden?
Derik Meinköhn, Leitung Stern Bildredaktion und Grafik, stern.de
1.
Zur Zeit veröffentlichen wir KI-generierte Bilder nur im Kontext der Berichterstattung über KI. Für eine Titelgeschichte habe ich zum Beispiel künstliche Illustrationen erstellt, die symbolisieren, wie sich unsere Welt durch KI verändern wird. Diese Bilder waren klar als Illustrationen zu erkennen und wurden auch mit einem entsprechenden Credit versehen. Für Quizzes auf der Online-Seite haben wir zu echten Fotos jeweils eine künstliche Version generiert, der Leser konnte dadurch einen Eindruck bekommen, wie weit fortgeschritten KI-generiertes Bildmaterial heute ist. Auch in Artikeln über die Technik dahinter kommen bei uns künstliche Visualisierungen zum Einsatz.
Dann gibt es noch Bereiche, die der Leser nicht direkt mitbekommt. KI kann man hervorragend zur Visualisierung von Ideen benutzen. Ich kann zum Beispiel vor einem Fototermin mit KI sehr schnell Vorschläge für die Bildkomposition generieren und bin dann später vor Ort wesentlich schneller. Auch im Layout kann man mit KI rasch ein paar Vorschläge für Logos oder Layouts erzeugen, von denen man dann später das ausgesuchte auf klassische Weise realisiert. Der kreative Spielprozess am Anfang wird dadurch beschleunigt und enorm verkürzt.
2.
Wir sind aktuell dabei ein Statut zu erarbeiten, welches für unser Medienhaus eine gute Grundlage sein kann. Beim Stern finden wir KI generierte Bilder im journalistischen Kontext grundsätzlich problematisch. Wir können uns nur vorstellen sie einzusetzen, wenn klar ersichtlich ist, dass es sich nicht um eine tatsächliche Abbildung einer realen Szene handelt. Was uns als Stern auszeichnet ist ja, dass wir vor Ort sind, und dass wir mit den Menschen sprechen. Wir lassen unsere Geschichten unabhängig vom Autor detailliert von Faktencheckern prüfen, da kann man nicht plötzlich mit künstlichen Bildern um die Ecke kommen. Das kann wirklich nur dann Sinn machen, wenn sie klar als künstlich zu erkennen sind, wie zum Beispiel bei Grafiken und Illustrationen oder Bildern, die eindeutig nicht real sein können. Die Grenze sollte allerdings der Leser definieren und nicht die Redaktion. Das Bild vom Papst in der weißen Daunenjacke ist ein gutes Beispiel. Das Bild ist von professionellen Bildredakteuren sehr schnell als Fake zu erkennen, vom Leser aber nicht.
3.
Dadurch, das wir KI-Bilder, die aussehen wir reale Fotos, zumindest wissentlich nicht drucken. KI Bilder müssen als solche erkennbar sein, sei es durch absurde Szenen, durch die Wahl der Ausführung oder durch klar erkennbare Beschriftung.
Unsere größte Herausforderung wird dabei in Zukunft sein, dass wir selbst erkennen, ob Bilder künstlich sind oder nicht. Schon heute gibt es in Bildagenturen millionenfach KI generiertes Material. Einige diese Bilder sind schon so gut, dass man sie als Profi kaum von echten Fotos unterscheiden kann und die Entwicklung geht so rasant voran, dass in wenigen Jahren, vielleicht sogar Monaten, der optische Unterschied verschwunden sein wird.
Wir müssen deshalb noch stärker als zuvor auf vertrauenswürdige Fotografen, seriöse Presseagenturen und ein akribisches Prüfen der Fakten setzen. Zudem unterstützen wir die Content Authenticity Initiative von Adobe, durch die es möglich sein wird, ein Foto bis zum Chip der Kamera zurückverfolgen. Und wenn dann weiterhin Zweifel an einem Bild bestehen, drucken wir es nicht.
Aber uns muss auch klar sein, dass künstliche Geschichten wie „The Book of Veles“ von Jonas Bendiksen oder „90 Miles“ von Michael Christopher Brown in Zukunft noch wesentlich besser werden und es wäre sehr hochnäsig zu behaupten, man würde sicher nicht darauf hereinfallen.
4.
Das größte Einsatzfeld von KI-Bildern wird nicht der Journalismus sein, sondern Marketing und Werbung. Eine Kennzeichnungspflicht dort finde ich absurd, weil in dem Bereich selbst auf echte Fotos gelogen wird. Die Familie am Frühstückstisch besteht in der Regel aus Fotomodellen, die häufig nicht einmal am selben Ort wohnen, sie sitzen in einer Wohnung, die ihnen nicht gehört, auf dem Tisch steht präpariertes Essen, welches auf dem Bild zwar hübsch aussieht, aber ungenießbar ist. Ihr Auto wurde CGI-generiert und existiert nur im Computer und ihre Gesichter sind mit Bildbearbeitung so durchoptimiert, dass man sie im wahren Leben niemals wiedererkennen würde. Davon müssen wir uns als journalistisches Produkt abgrenzen. Unsere Aufgabe ist, die Welt zu zeigen, wie sie ist. Deshalb sollten wir KI generierte Bilder in journalistischen Produkten nur dann einsetzen, wenn wir einen wirklich guten Grund dafür haben und dann sollten wir sie immer kennzeichnen.
Mark-Oliver Multhaup, Geschäftsführer Funke Foto & Video, funkemedien.de
1.
Natürlich sind für uns KI-Bilder ein Thema, mit dem wir uns intensiv beschäftigen. Uns stehen mit den aktuellen Versionen unserer Adobe Softwarepakete auch selbst KI-Lösungen wie Firefly, Express oder die Generative Fill Funktionen in Photoshop zur Verfügung. Zu aller erst fühlen wir uns aber dem qualitativ hochwertigen und vertrauenswürdigem Journalismus verpflichtet, deshalb gibt es sehr enge Grenzen, in denen wir KI Bilder redaktionell nutzen. Die großen und seriösen Stock Agenturen wie Getty, Shutterstock, Adobe und Co. bieten mittlerweile auch in ihren kommerziellen Angeboten KI-generierte Bilder, die aber klar gekennzeichnet sind. So wollen wir es auch halten, wenn wir solches Material nutzen, dann unter der klaren Prämisse „Vertrauenswürdig, geprüft und gekennzeichnet“.
2.
Im wesentlichen sehen wir den Einsatz von KI-Bildern im Bereich erklärendes Bildmaterial, auch Stock Images genannt. Hier bieten sich interessante Möglichkeiten, passgenau Illustrationen – und so betrachten wir KI-Bilder momentan – zu erstellen. In jedem Fall werden diese Bilder von uns dann auch als solche gekennzeichnet. Sie sind aber ohnehin erkennbar, denn wir vermeiden bewusst fotorealistische Bilder. KI-Bilder ersetzen also quasi Illustrationen, die wir vorher in der Grafik auswendig gebaut haben. Im klassischen Editorial Bereich sehen wir keinerlei Anwendungsmöglichkeiten, hier setzen wir ausschließlich auf authentische, reale und geprüfte Bilder. An die Agenturen, die uns zuliefern, stellen wir hohe Ansprüche, unseren eigenen Fotografen ist es ausdrücklich untersagt, Bildinhalte zu verändern. Das galt auch schon lange vor KI, denn nicht alles, was heute unter KI als „hip and new“ verkauft wird, ist auch wirklich neu. Bildmanipulation und so genannte „deep fakes“ gab es quasi schon immer, nur der Aufwand der Erstellung war deutlich größer.
3.
Funke ist aktives Mitglied in der weltweiten Content Authentification Initiative, kurz CAI, die von Adobe und zahlreichen großen Medienhäusern und Agenturen ins Leben gerufen wurde. Alle großen Agenturen, wie dpa, AP, AFP, Reuters, dpa, epa, etc. sind Mitglieder. Hier werden Tools entwickelt und eingesetzt, die klare und transparente Bearbeitungswege von Fotos ermöglichen und in Zukunft auch unseren Usern und Lesern zur Verfügung stehen sollen. Wir vermeiden den Einsatz von fotorealistischen KI-Bildern, die Grenze zu den „Deep Fakes“ ist zu gering, auch mit klarer Auszeichnung. Wir sind der Auffassung, dass solches Material nicht zu unserem journalistischen Anspruch passt. Folglich können wir uns den Einsatz von Bildern, die realen Szenen ähnlich sind, im redaktionellen Umfeld nicht vorstellen.
4.
Wir sind der klaren Überzeugung, dass unsere User und Leser ein Recht darauf haben, dass wir ihnen authentische, verlässliche und geprüfte Inhalte liefern. Der Einsatz von KI wird sich weiter etablieren, deshalb ist es umso wichtiger, hier klar und transparent zu informieren, wenn KI bei Bildern zum Einsatz kam. Aber siehe oben: Selbst klassische redaktionelle Bilder werden von uns oder unseren Partnern fortlaufend auf Authentizität geprüft. Vertrauenswürdiger Journalismus ist ein hohes Gut. Wir stehen dafür ein. Das ist insbesondere auch bei Bildern wichtig, denn diese werden um ein vielfaches schneller erfasst. Die alte Weisheit „ein Bild sagt mehr als tausend Worte“ ist ja nur ein Ausdruck davon. Gleichzeitig bleiben Bilder, selbst bei flüchtiger Betrachtung, oft viel länger haften, weshalb wir auch an das redaktionelle Bild höchste Ansprüche stellen. Eine Kennzeichnung von authentischen Bildern indes halte ich in seriösen Medien für überflüssig, der Weg, die KI-Bilder zu kennzeichnen, ist der richtige.
Henner Flohr, Leiter der F.A.Z.-Bildredaktion, faz.de
1.
In der Bildredaktion der Frankfurter Allgemeinen Zeitung beobachten wir die Entwicklungen auf dem Gebiet Künstlicher Intelligenz interessiert und testen die bekannten Tools und Programme regelmäßig. Wir hatten auch externe Experten zu Gast in unserer Redaktionskonferenz, um aktuelle Anwendungsfelder besser zu verstehen. In unseren Publikationen nutzen wir KI-Bilder momentan jedoch ausschließlich im direkten Zusammenhang mit einer Berichterstattung über Künstliche Intelligenz.
2.
Unsere im Frühjahr veröffentlichten F.A.Z.-Grundsätze zur Nutzung Künstlicher Intelligenz legen die Leitplanken eindeutig fest, dort heißt es: „Wir veröffentlichen heute und auch künftig keine von KI generierten Bilder oder Videos. Wie bei Texten werden wir nur dann Ausnahmen machen, wenn die Tatsache, dass KI verwendet wurde, der Kern der Geschichte ist. Wir werden dies offenlegen. Wir verwenden auch ausdrücklich keine KI-generierten Bilder anstelle von Archivbildern.“ (Quelle: faz.net/vertrauen)
Unser Ziel ist, Texte durch journalistische Fotos inhaltlich zu bereichern – wir nehmen den Informationsgehalt von Bildern ernst. Aus diesem Grund haben wir zwei festangestellte Redaktionsfotografen und arbeiten gerne langfristig mit freiberuflichen Fotografinnen und Fotografen in Deutschland und der Welt zusammen, denen wir vertrauen. Selbst bei Symbolfotos sind wir bemüht, Fotos aus journalistischen Zusammenhängen zu nutzen, um ein Bild der Wirklichkeit zu zeigen.
Wenn Fotos mit Hilfe künstlicher Intelligenz erstellt wurden, sind sie einer gezeichneten Illustration näher als einem Foto. Mit Illustrationen arbeiten wir etwa in unserer Sonntagszeitung oder in Beilagen – und zwar als klar unterscheidbare Ergänzung der journalistischen Fotografie. Ob sich KI-Bilder mit klarer Kennzeichnung in der Zukunft als zusätzliche Form einer solchen künstlerischen Illustration etablieren können, ist eine spannende Frage. Nach jetzigem Stand sehe ich die Chancen der technischen Neuerungen für uns eher in unterstützenden Bereichen, etwa in Bild-Suchfunktionen, die über den klassischen Weg des Auslesens von Metadatenfeldern hinaus gehen.
3.
Da wir KI-generierte Bilder nur im direkten Zusammenhang mit einer Berichterstattung über das Thema selbst einsetzen, ist eine Verwechslungsgefahr bei uns kaum gegeben. Bei diesen seltenen Verwendungen sind wir trotzdem bemüht, in Bilderunterschrift und Bildquelle unmissverständlich zu kennzeichnen, dass es sich um eine künstliche Aufnahme handelt.
Darüber hinaus nehmen wir in der Bildredaktion die genaue Prüfung unklarer Quellen noch ernster und begegnen der Echtheit von Fotografie natürlich schon lange mit gesundem Misstrauen. Die Prüfung auf KI-generierte Bilder ist hier ein weiterer Parameter beim Ausschluss möglicher Manipulationen.
4.
Eine eindeutige Abgrenzung von KI-Bildern und Fotografie betrachte ich als unverzichtbar im Journalismus. Allerdings sollten wir nicht vergessen, dass sich Fotos auch ohne den Einsatz KI schon immer manipulieren ließen. Die Neuerung ist, dass Manipulationen und Bildveränderungen noch einfacher geworden sind. Eine Kennzeichnungspflicht macht aber nur dann Sinn, wenn Sie fälschungssicher ist – und hier ist mir bislang keine technische Lösung bekannt. Im Journalismus wird deshalb das Vertrauen in Bildquellen noch wichtiger. Hier sehe ich eine Chance für professionelle Fotografinnen und Fotografen, die durch langfristige seriöse Arbeit mit ihren Namen für Authentizität stehen – und sich so beispielsweise von Amateuraufnahmen oder schwer verifizierbaren Screenshots abgrenzen können.
Mascha Zuder, Leitung Bildredaktion von Der Spiegel, spiegel.de
1.
Aus den Leitlinien zum Einsatz von KI der Spiegel-Gruppe: „Angesichts des Tempos in der Entwicklung künstlicher Intelligenz ist es aus heutiger Sicht kaum möglich, alle Chancen und Risiken abschließend einzuschätzen. Wir setzen uns deshalb laufend mit den Risiken und Chancen im Allgemeinen und der von uns verwendeten Systeme in Speziellen auseinander und entwickeln unsere Grundsätze immer bei Bedarf weiter. Wir achten bei der Auswahl von Systemen der künstlichen Intelligenz darauf, dass sich diese im geltenden Rechtsrahmen bewegen und die Anbieter bereit sind, ethische Debatten über KI ernsthaft zu führen. Die Lizensierung von KI-Software erfolgt zentral (derzeit in der IT) gesteuert, um Transparenz über den Einsatz zu ermöglichen. Wir dokumentieren unsere Tests und Erfahrungen mit KI und tauschen uns dazu innerhalb des Unternehmens, mit anderen Medien sowie mit weiteren Partnern aus.
2.
Wir unterscheiden zwischen KI-generierten Bildern und Fotos, die mit KI-basierten Werkzeugen bearbeitet wurden. Fotos werden bereits seit Jahren mit KI-Werkzeugen optimiert. Agenturen, Fotografinnen und Fotografen und auch die Redaktionen verwenden diese bearbeiteten Fotos oft unbemerkt. Das Hochrechnen von Fotos in Photoshop funktioniert z.B. mit KI, auch Farbfilter in Bildbearbeitungsprogrammen und sozialen Medien sind oft KI-basiert. Es ist davon auszugehen, dass viele Fotos durch KI-basierte Filter laufen und damit genau genommen KI-bearbeitete Fotos sind.
KI-generierte Bilder hingegen sind keine Fotos. Sie bilden nicht ab, was einmal war, sondern sind neu geschaffene Bilder. KI-generierte Bilder dürfen nicht im journalistisch/dokumentarischen Kontext verwendet werden. Eine Verwendung von KI-generierten Bildern ist im Bereich von Symbolbildern und Illustrationen denkbar.
Aus den Leitlinien zum Einsatz von KI der SPIEGEL-Gruppe:
„Wir setzen künstliche Intelligenz in unseren eigenen Produkten niemals ohne Aufsicht oder klare Spielregeln ein und prüfen, ob das Resultat unseren Ansprüchen an Faktentreue, Ausgewogenheit und kritische Unabhängigkeit gerecht wird. Spielen Systeme der künstlichen Intelligenz eine maßgebliche Rolle bei der Aufbereitung oder Darstellung textlicher Inhalte, deklarieren wir dies für die Leserinnen und Leser immer transparent und klar erkennbar. Gleiches gilt für Bilder, die mit künstlicher Intelligenz erstellt oder wesentlich verändert wurden. Ziel beim Einsatz generativer KI-Systeme muss – gerade für eine Marke wie den Spiegel – insbesondere eine Qualitätssteigerung oder Angebotsausweitung sein.
3.
KI-generierte Bilder müssen immer eindeutig gekennzeichnet werden. Derzeit kennzeichnen wir die Bilder sowohl im Credit als auch in der Bildunterschrift, damit der/die Leser:in, der/die den Credit nicht mitliest, eindeutig darüber informiert ist.
4.
KI-generierte Bilder müssen immer eindeutig gekennzeichnet werden. Bisher wurden authentische Bilder nicht gekennzeichnet. Ich halte dies auch weiterhin für den richtigen Weg.
Heinrich Holtgreve, Mitglied der Bildagentur Ostkreuz, ostkreuz.de
1.
Bei den Fotografinnen und Fotografen der Agentur Ostkreuz spielt generative KI keine Rolle. Wir arbeiten in verschiedenen fotografischen Kontexten: Mal journalistisch, mal werblich, mal frei. Der Zugang zu unseren Themen wurzelt dabei in der humanistischen Autorenfotografie: Wir gehen mit unseren Kameras vor die Tür und widmen unseren subjektiven Blick dem menschlichen Treiben auf diesem merkwürdigen Planeten.
2.
Wir arbeiten gerade an einem Statut, das unsere Haltung zu KI-Bildern nach innen und außen kommuniziert. In unserer Rolle als Fotograf*innen lehnen wir die Verwendung von generativen KI-Werkzeugen ab und plädieren dafür, dass die Redaktionen der Qualitätsmedien einen verantwortungsvollen Umgang mit den neuen Werkzeugen entwickeln, denn: Fotografische Bilder sind und bleiben das beste Mittel, mit dem wir Medienschaffenden visuelle Realitäten erzeugen können. Die aktuelle KI-Debatte dockt dabei an bestehende Diskurse über die Einlösung des Realitätsversprechens von journalistischer und dokumentarischer Fotografie an, aber das würde hier zu weit führen.
3.
Auf technischer Ebene arbeiten wir (als Mitglied der „Content Authenticity Initiative“) mit dem Entwickler unserer Bildarchiv-Software daran, ein neues Feld (neben Datum, Urheber, Caption etc.) einzurichten: „Generative KI: Ja / nein“. Im Ostkreuz-Bildarchiv wird an dieser Stelle ein „nein“ stehen.
4.
Wir befürworten eine Kennzeichnung von Fotografien und KI-Bildern in redaktionellen Medien. Verlage sollten die Kennzeichnung nicht als Pflicht, sondern als gestalterische Chance begreifen, Vertrauen in ihre journalistischen Produkte zu erhöhen. Den Teil des Publikums, der sämtliches Vertrauen in Staat, Institutionen und Redaktionen verloren hat, wird eine Kennzeichnung vermutlich nicht „zurückholen“: Hier sollte ein Akteur wie die EU erwirken, dass auch soziale Medien wie Instagram stärker in die Pflicht genommen werden. Die Provenienz und das Fact-Checking von Content müssen im User Interface zugänglicher gemacht werden. Ausgerechnet Plattform-Gigant Google geht mit seinem Projekt „Jigsaw“, bei dem u.a. Fake-News-Kampagnen von Fact-Checkern entlarvt werden, in eine erfreuliche Richtung. Ein letzter Gedanke zu redaktionellen Medien: Entscheidend für die Qualität journalistischer Inhalte bleibt die wirtschaftliche Frage: Wie viel Zeit hat die Journalistin, der Bildredakteur und die Fotografin für die Recherche?
Silke Frigge, Geschäftsführerin der Laif Agentur für Photos & Reportagen, laif.de
1.
Fakt oder Fake – das ist hier die Frage. Dabei geht es erst einmal nur um vollständig KI-generierte Bilder, denn sie sind keine Fotografien. Es gibt genug Statements von Verbänden wie dem BFF, Freelens, Deutscher Fotorat etc., in denen die zahlreichen Herausforderungen schon beschrieben werden. Ich diskutiere zu den aktuellen Entwicklungen regelmäßig mit dem Vorstand der Laif Genossenschaft und wir sind der Meinung (Stand Juli 2023), dass wir unseren Kund:innen keine Bilder anbieten wollen, die vollständig KI generiert sind und haben es in naher Zukunft auch nicht vor. Ich kläre zunächst mit unseren Partneragenturen, wie ihre Geschäftsstrategien dazu aussehen, denn wir wollen ausschließen, dass uns KI-Bilder angeliefert werden bzw. wie wir sie filtern könnten. Die meisten teilen unseren Standpunkt. Auch mit unseren Fotograf:innen wird es Austausch dazu geben, bisher gab es aber noch keine Rückmeldung, dass wir Promptographien von ihnen zu erwarten hätten. Für uns ist es noch verhältnismäßig leicht, uns abzugrenzen, denn wir vertreten überwiegend Fotojournalist:innen und Dokumentarfotograf:innen, für generische Stockfotografie oder werbliche Fotografie mag sich das anders darstellen. Uns liegt sehr viel daran, dass unsere Kund:innen mit Laif eine verlässliche Quelle für ereignisbasierte und qualitativ hochwertige Fotografien haben, die eine Situation/Person abbilden, bei der der/die Fotografierende tatsächlich anwesend war. Zusätzlich haben unsere Kund:innen immer verantwortungsvolle Redakteur:innen in der Agentur, die die Laif Urheber:innen persönlich kennen, diese Authentifizierungskette ist seit jeher ein wichtiger Teil unseres Qualitätsanspruchs und Kundenservice gewesen – schon vor dem KI-Zeitalter.
2.
Ich beobachte sehr interessiert, wo, wie häufig und nach welchen Regeln KI-Bilder von Redaktionen von nun an eingesetzt werden. Die Zeit, Der Spiegel und viele andere tun es ja bereits. Ob es – wie von ihnen häufig angekündigt – nur im Kontext von Symbolbildern bleibt, werden wir sehen. In der journalistischen Berichterstattung haben KI-Bilder nichts zu suchen. Im kreativen und werblichen Kontext wird die Nutzung von KI-Bildern sicher lohnend sein. Für den künstlerischen Ansatz sehe ich das viel positiver, denn Promptographien wie „The Electrician“ von Boris Eldagsen finde ich persönlich sehr spannend und sie fordern eine konstruktive Auseinandersetzung mit Künstlicher Intelligenz ein.
3.
Solange es kein gesetzliches Regelwerk für die Urheber- und Folgerechte am künstlich generierten Bild gibt und keine einheitliche und verbindliche Kennzeichnung in den Metadaten existiert, sehe ich aktuell keinen Anlass KI-Bilder für eine Lizensierung bereit zu stellen. Diese Herausforderungen gilt es vordringlich zu lösen und das wird nicht einfach, aber das ist die gemeinsame Aufgabe der Fotobranche. Ein Alleingang ist hier wenig zielführend.
4.
Eine Kennzeichnungspflicht halte ich zum derzeitigen Standpunkt der Entwicklung für unerlässlich und begrüße die Anstrengungen im Rahmen der Content Authenticity Initiative (CAI), die unternommen werden, um international einheitliche Standards dafür zu entwickeln. Ob sich der gerade diskutierte Vorschlag (A/M/G) durchsetzen kann, bleibt abzuwarten. Auch ein Verbot der Löschung von Metadaten unterstütze ich grundsätzlich, denn die Urheberschaft sollte stets nachvollziehbar bleiben.
Stefan Runne, Stefan A. Runne, Head of Picture Desk bei Welt, welt.de
1.
Die Welt-Publikationen (welt.de, Die Welt, Welt am Sonntag) sind journalistische Produkte, sie
berichten über echte Ereignisse und Personen. Wir bilden in unseren Reportagen die Realität in Wort und Bild ab. Es ist unser journalistischer Anspruch und auch eine Frage der Glaubwürdigkeit und Verlässlichkeit der Marke Welt, eben diese Themen ausschließlich mit realen, echten, idealerweise selbst in Auftrag gegebenen Fotografien zu bebildern. Trotzdem haben wir KI-generierte Bilder bereits genutzt – aber nur im KI-Kontext. Es wurden z.B. Berichte über KI-Bilder mit ebenjenen bebildert, die im Text besprochen wurden. Wir haben Künstler vorgestellt, die mit KI eigene Kunstwerke generieren und wir experimentieren auch selbst mit verschiedenen Bild-Generatoren, um zu lernen – und prüfen einen möglichen Einsatz auf rein illustrativer Ebene.
2.
In redaktionellen, also journalistischen Bereichen haben KI-generierte Fotos nichts verloren. Es gilt aber zu unterscheiden, ob eine Fotografie mit einem KI-Generator erschaffen wurde (Nein), oder ob eine journalistische Fotografie mit Hilfe einer KI-basierten Software „optimiert“ wurde, denn jedes Bild wird vor Veröffentlichung den internen und technisch klar definierten Standards der jeweiligen Redaktion bzw. des Redaktionssystems angepasst (Ja). Bei Welt gibt es eine große Gruppe, die sich intensiv mit allen Facetten des KI-Einsatzes beschäftigt. Der Umgang mit KI-generierten Bildern ist Teil einer Richtlinie, die kurz vor der Verabschiedung steht.
3.
Wir wählen unsere Partner und Quellen sehr bewusst aus. Das sind zum einen die Nachrichten- und Fotoagenturen, deren Bilderdienste wir abonniert haben, die zudem in ihren eigenen internen Richtlinien eine klare und strenge Definition zum Umgang mit ihrem eigenen Material haben. Zum anderen sind es die uns persönlich bekannten, erfahrenen, journalistisch arbeitenden Fotografinnen und Fotografen, die wir direkt beauftragen. Zu guter Letzt gibt es in unserer Redaktion das „Vielaugenprinzip“. Bevor ein Foto veröffentlicht wird, geht es durch mehrere Hände und wird instinktiv auf Plausibilität und Auffälligkeiten geprüft. Können wir ein Bild nicht eindeutig verifizieren, lassen wir die Finger davon.
4.
Schon um dem Leser Glaubwürdigkeit und Transparenz zu garantieren, müssen KI-generierte Bilder – aber auch die klassischen Fotomontagen – eindeutig, auffällig und unmissverständlich als solche gekennzeichnet werden. Authentische Fotografien brauchen aus meiner Sicht keine besondere Kennzeichnung.
Foto: mind wank