Zwei Bilder nebeneinander. Links ein junger Mann in einer Stadt, er und sein Schatten sind von einer Linie umgeben. Rechts das gleiche Foto, aber statt des jungen Manns steht hier ein Poller auf dem Gehweg.

Bildbearbeitung mit KI – Photoshop Firefly im Test

| Lesedauer: 4 Minuten

Photoshop nutzt schon seit längerem intelligente Tools, um die Bildbearbeitung zu verbessern. So lässt sich der Himmel in einem Foto schnell auszutauschen. Mit der Künstlichen Intelligenz Firefly will Adobe das Ganze für eine Reihe von Programmen auf ein neues Level bringen. Wir haben Firefly für Photoshop in der Beta-Version getestet und sind begeistert.

Künstliche Intelligenz (kurz: KI) ist überall im Gespräch. Die Bezeichnung Künstliche Intelligenz beschreibt die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren. KI ermöglicht es technischen Systemen, ihre Umwelt wahrzunehmen, mit dem Wahrgenommenen umzugehen und Probleme zu lösen, um ein bestimmtes Ziel zu erreichen. Im Alltag nutzen wir schon häufig KI – sei es bei der Gesichtserkennung des Smartphones oder die Empfehlungen von Streaming-Diensten, welche Serie wir als nächstes schauen sollen. Immer mehr Tools werden im Internet frei nutzbar, sowohl für private als auch für berufliche Zwecke. In Textform liefert ChatGPT erstaunliche Ergebnisse und erleichtert u. a. Entwicklern den Arbeitsalltag.

Für Grafiker gibt es mit der Beta-Version Firefly in Photoshop seit dem 23. Mai 2023 auch ein sehr praktisches Tool – zumindest für bestimmte Funktionen. Da die KI stetig lernt und weiterentwickelt wird, dürfte das nur der Anfang sein. Dieser Beitrag bezieht sich ausschließlich auf die Beta-Version (Stand Mai 2023).

Welche Möglichkeiten bietet Photoshop (Beta) mit Firefly?

Firefly ist für alle Photoshop-Nutzer frei zugänglich. Um es zu nutzen, lädt die User*in in der Creative Cloud unter „Beta-Applikationen“ das Programm „Photoshop (Beta)“ herunter.

In der Betaversion öffnet die User*in ein Bild und markiert den Bereich, den er oder sie verändern möchte. Alternativ kann das Bild erweitert und der leere Bereich, der gefüllt werden soll, markiert werden. Hier kommt die generative Füllung ins Spiel: Es wird in Textform eingegeben, was hinzugefügt, entfernt oder verändert werden soll.

Nach einer kurzen Berechnung schlägt Photoshop drei verschiedene Ergebnisse vor, die ausgewählt und jederzeit nachträglich verändert werden können. Gefällt das Ergebnis nur zum Teil, kann ein Teilbereich davon erneut angepasst werden.

Screenshot des Programms Photoshop (Beta). Das Fotos eines Hauses ist geöffnet. Vor dem Bild ist ein Programm-Fenster geöffnet mit den Begriffen „tree“ und „generieren“.

Wie gut funktioniert die Beta-Version aktuell?

Die verschiedenen Optionen funktionieren unterschiedlich gut:

  • Bilder erweitern
    Diese Funktion wird im Arbeitsalltag oft gebraucht und funktioniert sehr gut. Firefly scheint alles zu erkennen: die Perspektive, die Lichtstimmung und sogar Objekte, Straßen, Wege, den Horizont und vieles mehr und führt diese fort.

  • Objekte entfernen
    Diese Funktion liefert, je nach Bild, sehr unterschiedliche Ergebnisse. Teilweise werden Objekte durch andere Objekte ersetzt. Das müssen aber nicht zwangsläufig Objekte sein, die es tatsächlich gibt. Die KI ist hier mitunter recht kreativ. In vielen Fällen funktioniert es aber auch beeindruckend gut (siehe Titelbild).

  • Objekte hinzufügen
    Das Hinzufügen von Objekten scheint die KI am meisten zu fordern. Hier sind gute Ergebnisse bisher eher die Ausnahme. Objekte haben nicht immer Schatten und beim Einfügen wird oft auch der Hintergrund verändert, was zu unerwünschten Ergebnissen führen kann.

Das Original ist quadratisch. Wir haben es zunächst erweitert und Colin dann aus dem Bild entfernen lassen. Die KI musste somit einen Teil des Autos nachbilden. Das Ergebnis überzeugt.

Was ist das Besondere an Firefly?

Aktuell kann Photoshop bereits Objekte, Muster, Helligkeit und Farbstimmungen erkennen und somit zum Beispiel die inhaltsbasierte Füllung anwenden. Bei dieser wird allerdings nur Bildmaterial aus dem geöffneten Bild verwendet, um Flächen damit zu füllen.

Firefly bedient sich zusätzlich an der Bilddatenbank von Adobe Stock mit mehreren Millionen Bildern und fügt perspektivisch passende Bildelemente optisch passend ein. Eine Lizenz muss man dafür nicht erwerben, trotzdem darf das Resultat gewerblich genutzt werden. Firefly ist außerdem in der Lage den Bildaufbau zu verstehen. Neben Perspektive, Unschärfe und Schatten werden Elemente erkannt und weitergeführt.

3 Bilder mit dem gleichen Motiv. Ausschnitt eines Hauses mit mehreren Fenstern sowie zwei Ansichten, in denen ein Fenster wegretuschiert wurde, einmal mit der inhaltsbasierten Füllung und einmal mit Photoshop Firefly.

Fazit

Firefly befindet sich noch in der Entwicklung, bietet aber jetzt schon Ergebnisse, die uns in der Grafikabteilung die Arbeit deutlich vereinfachen. Bisher haben wir Tools dieser Art kaum genutzt, da sie zu ungenau waren. Das bezieht sich zum Beispiel auf die die Funktion „Himmel austauschen“ oder die Schnellauswahl in Photoshop. Mit der „generativen Füllung“ bietet Photoshop nun ein Tool, das in bestimmten Bereichen absolut genau arbeitet und einsatzbereite Bilder für Print und Web liefert. Wir können deshalb nur jedem empfehlen, das Tool jetzt schon zu nutzen. Dabei können wir alle sogar bei der Weiterentwicklung helfen: indem man die Ergebnisse bewertet (Daumen nach oben oder Daumen nach unten). Denn bei der Entscheidung, ob etwas gut ist, ist die KI wiederum auf die Bewertung von Menschen angewiesen.

Photoshop (Beta) sowie viele weitere Infos findet ihr hier: www.helpx.adobe.com

Dies war ein kleiner Exkurs in ein paar neue Funktionen von Photoshop. Illustrator, After Effects, Premiere und Co. sollen ebenfalls von Firefly profitieren und sind ebenfalls schon als Beta-Versionen verfügbar. Wir sind gespannt, was uns in Zukunft erwartet.