Die Content Authenticity Initiative hat die 1.000-Mitglieder-Marke überschritten und ermöglicht jetzt, „Do Not Train“-Zertifikate in die Content Credentials einer Bilddatei einzubinden, die KI-Systeme darauf hinweist, dass entsprechend markierte Bilder nicht von ihnen verwendet werden sollten.
Auf dem Adobe Summit im vergangenen Monat wurde Adobes neues generatives KI-Modell Firefly angekündigt, und mit ihm die Verpflichtung, die CAI Content Credentials zu nutzen, um Transparenz in die generativen KI-Ergebnisse zu bringen. In jedes mit Firefly produzierte Asset ist ein Content Credential eingebettet, dass das verwendete Modell und dessen Version angibt. Adobe und die CAI wollen dadurch sicherstellen, dass Tools wie Firefly verantwortungsbewusst eingesetzt werden, aber auch den Betrachtern dieser Inhalte Hinweise darauf geben, in welchem Kontext das Bild entstanden ist, dass sie sehen.
Um sicherzustellen, dass Urheber mehr Kontrolle über ihre Arbeit haben, können sie die CAI-Provenance-Technologie nutzen und „Do Not Train“-Zertifikate anbringen, die ihre Inhalte überallhin begleiten. Dieser Hinweis soll KI-Entwickler daran hindern, Inhalte mit „Do Not Train“-Zertifikaten zu nutzen. Die CAI ist jedenfalls davon überzeugt, dass dieser Hinweis als universeller Standard schnell angenommen werden wird, nachdem er jetzt als Teil der neuesten technischen Spezifikation der C2PA veröffentlicht wurde.
Während die Coalition for Content Provenance and Authenticity (C2PA) an der Technologie zum Nachweis der digitalen Provenienz feilt, arbeitet die CAI am Ausbau ihrer großen Community, um den Standard in die Praxis umzusetzen. Die gerade veröffentlichte Version 1.3 der technischen Spezifikation umfasst erweiterte Metadaten für die Erstellung und Änderung von Medien, damit KI-generierte Bestandteile klar erfasst und angezeigt werden können und so für generative KI-Transparenz zu sorgen.