Apples bisherige Versuche im Bereich der generativen Bildbearbeitung wirkten eher wie ein vorsichtiges Abtasten. Während die Konkurrenz aus Mountain View und Seoul bereits ganze Straßenzüge auf Fotos umbauen lässt, beschränkte sich Apple mit "Clean Up" auf das Entfernen störender Objekte - oft mit mäßigem Erfolg und sichtbaren Artefakten. Zur WWDC 2026 im Juni soll sich das Blatt wenden. Mit iOS 27, iPadOS 27 und macOS 27 plant der Konzern eine tiefgreifende Integration neuer "Apple Intelligence Tools", um den technologischen Rückstand endlich aufzuholen.
Die drei neuen Säulen der Bildmanipulation
Im Zentrum der Überarbeitung stehen drei Funktionen, die direkt in die Bearbeitungsoberfläche der Fotos-App wandern. Das Werkzeug "Extend" ermöglicht es, Bildinhalte über den ursprünglichen Rand hinaus zu generieren. Nutzer ziehen das Bild einfach mit den Fingern groß, und die KI füllt die leeren Flächen mit passenden Hintergründen auf.
"Enhance" geht über den klassischen Auto-Button hinaus. Hier erkennt das System kontextuell, welche Bereiche des Bildes Optimierung bei Belichtung, Rauschen und Farbtreue benötigen, um eine professionelle Ästhetik zu erzeugen. Besonders spannend ist "Reframe": Diese Funktion ist speziell für räumliche Aufnahmen gedacht und erlaubt es, die Perspektive eines Fotos nachträglich zu verschieben - so als hätte man beim Auslösen einen Schritt zur Seite gemacht.
Privatsphäre vs. Rechenleistung
Apple bleibt seiner Linie treu: Die Verarbeitung soll primär lokal auf dem Endgerät stattfinden. Das schützt zwar die privaten Schnappschüsse vor dem Zugriff fremder Server, stellt die Hardware jedoch vor massive Herausforderungen. Aktuelle interne Tests zeigen, dass besonders die Generierung neuer Bildinhalte bei "Extend" noch unzuverlässig ist. Die Ergebnisse schwanken zwischen beeindruckend realitätsnah und physikalisch unmöglich.
Diese Hürden könnten dazu führen, dass Apple zum Start im Herbst 2026 den Rotstift ansetzt. Es ist nicht unwahrscheinlich, dass Funktionen wie "Reframe" zunächst als Beta-Version oder nur für die neuesten Pro-Modelle erscheinen, da die lokale Rechenpower der Neural Engine bei komplexen Generierungen an ihre Grenzen stößt.
Der Vergleich mit den Platzhirschen
Für Profi-Anwender ist das, was Apple hier als Neuheit präsentiert, alter Kaffee. Adobe Photoshop bietet Generative Fill bereits seit Jahren an, gestützt durch massive Cloud-Server. Auch Googles Magic Editor ist in Sachen Flexibilität derzeit noch eine Liga für sich. Apple setzt jedoch auf die nahtlose Integration in das Ökosystem. Für Apple muss klar sein: KI-Fotobearbeitung muss so einfach und sicher werden, dass sie zum Standard für jeden iPhone-Nutzer wird, ohne dass dieser ein Informatikstudium oder ein Cloud-Abo benötigt.
Kommentare (0)