· 

Von der KI-Bildauswahl zur intelligenten Bildorganisation: Die nächsten Schritte

Vor zwei Wochen habe ich die Vision einer KI-gestützten Kamera für die Bildauswahl beschrieben. Heute fokussiere ich auf den nächsten, ganz praktischen Schritt: Wie kommen wir von ersten KI-Tools zu einer integrierten, intelligenten Bildorganisation – konkret, ohne Systembrüche und mit klarem Nutzen im Alltag.

Der Pionier: Aftershoot

Mit Aftershoot gibt es bereits heute eine KI-gestützte Software, die Fotografen bei der Bildauswahl unterstützt. Sie analysiert Fotos nach technischen Kriterien wie Schärfe, Belichtung und geschlossenen Augen. Besonders beeindruckend: Die Software erkennt zusammengehörige Serien und schlägt die besten Varianten vor.

Bei aller Innovation bleibt ein Bruch im Workflow: Aftershoot arbeitet als eigenständiges Programm. Die Bilder müssen erst dort importiert und analysiert werden, bevor die Weiterverarbeitung in Capture One erfolgt. Das bedeutet zusätzliche Schritte, Zeit und Kosten – und genau hier setzt der Wunsch nach Integration an.

Aktuell: Lightroom „Assistierte Bildauswahl“ (Okt 2025)

Lightroom hat Ende Oktober 2025 „Assistierte Bildauswahl“ eingeführt. Die Funktion unterstützt die Vorauswahl auf Basis technischer Kriterien und einfacher Regeln (z. B. Schärfe, geschlossene Augen, Belichtungsprobleme) und bietet eine geführte Auswahlansicht. Das ist ein sinnvoller erster Schritt – aber noch kein lernfähiges System mit natürlichsprachigen Kriterien oder projektübergreifendem Kontext. Genau diese Lücke adressiert die hier skizzierte Vision.

Die Vision: Capture One der Zukunft

Stellen Sie sich vor, diese KI-Funktionen wären direkt in Capture One (oder auch in Lightroom) integriert - der Software, die für viele meiner Kolleginnen und Kollegen das Zentrum ihrer Bildbearbeitung ist. Aber nicht nur das: Die KI würde noch deutlich intelligenter agieren.

Was möglich wäre:

  • Natürlichsprachiges Prompt-Interface für die Auswahl: „Zeige mir Gruppenaufnahmen mit offenen Augen“ / „Erstelle eine Presse-Mappe mit 30 starken Einzelporträts.“
  • Gesichtserkennung über mehrere Shootings hinweg
  • Automatische Kategorisierung nach Bildgenres und Verwendungszweck
  • Lernfähige Algorithmen, die meine persönlichen Auswahlkriterien verstehen
  • Natürlichsprachige Befehle: "Zeige mir nur Gruppenaufnahmen, bei denen alle die Augen geöffnet haben" 

Wichtig dabei: Die Verarbeitung sollte lokal und ohne Übermittlung an Dritte erfolgen. DSGVO-Konformität hängt jedoch von der konkreten Rechtsgrundlage, den Verträgen (z. B. Einwilligungen/AVV) und den technischen und organisatorischen Maßnahmen (TOM) ab. Ziel ist ein System, das praktischen Nutzen mit sauberem Datenschutz vereint.

Heute → Vision (Kurzüberblick)

  • Heute arbeiten wir oft mit Insellösungen: Ein Tool zum Vorauswählen, ein anderes zum Bearbeiten, dazu Ex- und Importe. In der Vision verschmilzt das zu einem integrierten Workflow, der sich per natürlicher Sprache steuern lässt – und der aus technischen Kennzahlen lernt, was Ausdruck, Szene und Story für das Projekt bedeuten.
  • Heute helfen Serienerkennung und Duplikatfilter, sind aber kontextblind. In der Vision versteht das System die Story: Wer sind Haupt- und Nebenrollen, welche Szenen gehören chronologisch zusammen, welche Motive braucht die Pressemappe – und erstellt auf Sprachbefehl kuratierte Sets.
  • Heute basiert die Feinbewertung meist auf starren Regeln und viel Handarbeit. In der Vision lassen sich domänenspezifische Kriterien konfigurieren und trainieren – etwa, dass ein ernsthafter, konzentrierter Ausdruck oft stärker ist als ein generelles Lächeln. Das System passt sich mit jeder Produktion besser an.
  • Heute kosten Medienbrüche Zeit und Speicher: Exporte, Importe, große Zwischenformate. In der Vision führt eine durchgängige Pipeline von der Aufnahme bis zur Veröffentlichung – mit konsistenten Metadaten, geringeren Datenmengen und klarer Nachvollziehbarkeit der Auswahlentscheidungen.

Praxisbeispiel: Ein Tag am TV-Set

Wie das konkret aussehen könnte? Nehmen wir einen Drehtag:

  • Eine KI-gestützte Kamera überträgt nur die als „geeignet“ bewerteten Shots

  • Capture One erkennt automatisch Hauptdarsteller und Szenen

  • Die KI gruppiert ähnliche Aufnahmen und wählt die stärksten (nach zuvor definierten Kriterien wie Schärfe, Ausdruck, Blickrichtung)

  • Das System lernt mit der Zeit meine bevorzugten Bildstile

  • Ein einfacher Sprachbefehl genügt: "Erstelle eine Auswahl für die Pressemappe"

Der entscheidende Unterschied

Anders als heutige Lösungen würde diese Integration den kompletten Workflow abdecken - von der Aufnahme bis zur finalen Auswahl. Keine Systembrüche, keine Exportroutinen, keine mehrfachen Durchsichten.

Fazit: Evolution statt Revolution

Die Technologie entwickelt sich Schritt für Schritt. Mit Aftershoot sehen wir bereits heute, was möglich ist. Doch Domänenwissen fehlt oft: Ein Standfoto ist nicht „besser“, weil alle lächeln; manchmal ist der starke Ausdruck ernst, konzentriert oder wütend. Genau diese nuancierten Kriterien müssen lernfähig und konfigurierbar werden. Die vollständige Integration in professionelle Bildbearbeitungssoftware wie Capture One wäre der nächste logische Schritt.

Konkreter Nutzen auf einen Blick: weniger Medienbrüche, schnellere Vorauswahl, kleinere Datenmengen, konsistente Kriterien – und mehr Zeit für die kreative Arbeit.

Kommentar schreiben

Kommentare: 0