Freelens, der mitgliederstärkste Fotografen-Verband in Deutschland, warnt in einer Stellungnahme zu den Möglichkeiten der Bilderzeugung durch Künstliche Intelligenz (KI) vor eklatanten Gefahren für die Glaubwürdigkeit der Medien und damit für die demokratische Gesellschaftsordnung.
„Generierte Bilder zeigen nicht die Realität. Für die Glaubwürdigkeit von Bildern in journalistischen Medien sind authentische Fotografien unverzichtbar. Die dokumentarische Fotografie belegt die Existenz von Personen und Situationen. Auch für das Image von Institutionen und Firmen ist dies relevant. Werden sie und ihre Repräsentant*innen und Produkte nicht durch authentische Fotografien dargestellt, sondern durch eine Idealisierung und die Erfindung einer KI, stellt das Ihre Glaubwürdigkeit in Frage“, so Freelens und warnt: „Betrüger*innen und Manipulator*innen hingegen werden sich Text-to-Image-KI zu Nutzen machen, werden mit fotorealistischen KI-Bildern vorsätzlich Tatsachen verfälschen und die Betrachtenden manipulieren. Das gab es bereits in der Vergangenheit, aber in Zukunft werden auch Menschen ohne Vorkenntnisse Deepfakes (realistisch wirkende Medieninhalte, die durch KI verfälscht worden sind) erstellen können, die qualitativ keinen Unterschied zu authentischen Fotos aufweisen. Eine Flut dieser Fälschungen der Wirklichkeit können eine Wirkung entfalten, die unsere Demokratie gefährdet.“
Die Herausforderung für Fotojournalisten und Medien sieht Freelens zukünftig darin, den Rezipienten die Möglichkeit zu geben, authentische Fotografie von absolut fotorealistischen KI-generierten Bildern zu unterscheiden. Fotografen seien hier in der Verantwortung für das, was sie fotografieren, wie sie es fotografieren und bearbeiten und an wen sie ihre Bilder weitergeben.
Freelens ist Mitglied der Content Authenticity Initiative (CAI) und begrüßt ausdrücklich die Bereitstellung von international einheitlichen und durchgängig offenen technischen Standards dieser Art. Fotografen sollten ihre Bilder nach IPTC-Standards entsprechend ihrer digitalen Quelle kennzeichnen. Außerdem bekräftigt die Organisation ihre Forderung nach einem Verbot der Löschung von Metadaten, damit die Herkunft und die Urheberschaft von Fotografien nachvollziehbar bleiben. Medien sollen Bildmaterial entsprechend kennzeichnen: Authentisches Foto [A], Manipuliertes Foto [M], Generiertes Bild [G]. „Politische Entscheidungsträger*innen weisen wir darauf hin, dass die Demokratie auf verlässlich wahre Nachrichten angewiesen ist. Wer den Rechtsstaat vor Deepfakes schützen will, muss die Publikation von nachprüfbar authentischen Informationen fördern“, so Freelens.
Gefordert wird außerdem die Etablierung einer weltweit handlungsfähigen Aufsichtsbehörde und einer global gültigen Vereinbarung über ethische Normen im Bereich der KI-Anwendungen.
„Es droht eine Dystopie des kreativen Stillstands und der ewigen Wiederholung“, so das Statement, denn „eine KI … kann immer nur im Korridor des bereits Existierenden erschaffen, ihre Originalität ist begrenzt. Sie kann fortentwickeln oder anders kombinieren, aber nicht gänzlich neu erschaffen.“
Datamining-Vereinen solle die Gemeinnützigkeit entzogen werden, Werke dürften ohne Zustimmung und angemessene Honorierung der Urheber nicht als KI-Trainingsmaterial verwendet werden. „Es müssen gesetzliche Regelungen geschaffen werden, die KI-Anwendungen kontrollieren, die Übermacht der großen Tech-Konzerne regulieren und die Transparenz beim Datamining sicherstellen“.
Illustration: FREELENS