Stable Attribution ist eine KI, die analysiert, welche Fotos von KI-Bildgeneratoren wie Stable Diffusion bei der Erstellung bestimmter Bilder als Basis gedient haben. Die Entwickler wollen so Urhebern helfen, ihr Recht durchzusetzen, der Nutzung ihrer Werke durch KI-Systeme zuzustimmen oder sie abzulehnen, als Urheber genannt zu werden und für ihre Arbeit entlohnt zu werden.
Stable Attribution wurde von Jeff Huber und Anton Troynikov bei Chroma entwickelt, ein Start-up, das gegründet wurde, um KI verständlich zu machen, indem es analysiert, wie die Daten, mit denen Modelle trainiert werden, deren Verhalten beeinflussen. „Wir haben Stable Attribution entwickelt, weil wir eine Möglichkeit sahen, ein echtes Problem für echte Menschen zu lösen, und zwar mit einer Technologie, die wir verstehen“, so Jeff Huber. „Wir glauben, dass KI – wie jede Technologie – den Menschen dienen und sie nicht entfremden sollte.“
Anton Troynikov: „Der aktuell als Beta-Version 1 verfügbare Stable-Attribution-Algorithmus ist nicht perfekt, unter anderem weil der Trainingsprozess verrauscht ist und die Trainingsdaten viele Fehler und Redundanzen enthalten. Aber das ist kein unlösbares Problem. Wir forschen aktiv daran, ihn zu verbessern und die Attribution für alle Arten von generativen Modellen zu optimieren.“
„Stable Attribution findet derzeit Quellbilder, aber wir möchten in der Lage sein, Arbeiten direkt dem Künstler oder Schöpfer des Bildes zuzuordnen“, beschreibt Jeff Huber das nächste Ziel des Entwicklerteams. Denn, so Anton Troynikov: „Künstler sind auf die Namensnennung ihrer Werke angewiesen, um Anerkennung und Einkommen zu erhalten, und KI-Modelle benötigen von Menschen geschaffene Bilder, um zu funktionieren. Die Trainingsdaten für viele beliebte KI-Bildgeneratoren wurden jedoch aus dem Internet entnommen, und zwar auf eine Art und Weise, die von den Urhebern weder beabsichtigt noch genehmigt war. Dabei geht der Hinweis auf die ursprünglichen Schöpfer verloren.“
Troynikov und Huber wollen mit Stable Attribution Urhebern helfen, ihr Recht durchzusetzen, der Nutzung ihrer Werke durch KI-Systeme zuzustimmen oder sie abzulehnen, als Urheber genannt zu werden und für ihre Arbeit entlohnt zu werden.
Anton Troynikov: „Durch die Ermittlung der Urheber ist es möglich, ihnen für jedes von der KI generiertes Bild anteilig Anerkennung zukommen zu lassen. Durch die Aufteilung der Einnahmen mit den Urhebern entsprechend der Zuschreibung könnten KI-gesteuerte Apps den Künstlern jedes Mal, wenn ein Modell ein Bild generiert, ein passives Einkommen ermöglichen. Durch die Hervorhebung der Künstler, die die von der KI generierten Bilder beeinflusst haben, könnte außerdem jeder leicht neue Künstler entdecken, deren Arbeit er mag, indem er einfach eingibt, was er sehen möchte.“
Wie funktioniert Stable Attribution? Wenn ein KI-Modell darauf trainiert wird, Bilder aus Text zu erstellen, verwendet es einen riesigen Datensatz von Bildern und den dazugehörigen Bildtexten. Das Modell wird trainiert, indem ihm die Bildunterschriften gezeigt werden und es versucht, die dazugehörigen Bilder so genau wie möglich nachzubilden. Das Modell lernt dabei sowohl allgemeine Konzepte, die in Millionen von Bildern vorkommen, wie zum Beispiel wie Menschen aussehen, als auch spezifischere Details wie Texturen, Umgebungen, Posen und Kompositionen, die eindeutiger identifizierbar sind.
Version 1 des Algorithmus von Stable Attribution dekodiert ein von einem KI-Modell erzeugtes Bild in die ähnlichsten Beispiele aus den Daten, mit denen das Modell trainiert wurde. Normalerweise ist das Bild, das das Modell erstellt, nicht in den Trainingsdaten enthalten – es ist neu -, aber aufgrund des Trainingsprozesses sind die einflussreichsten Bilder die visuell ähnlichsten, insbesondere in den Details. Jeff Huber: „Die Daten von Modellen wie Stable Diffusion sind öffentlich zugänglich – durch die Indizierung aller Daten können wir die Bilder finden, die den vom Modell Erzeugten am ähnlichsten sind, unabhängig davon, wo im Datensatz sie sich befinden.“
https://www.stableattribution.com