Darum brauchen Sie den magischer Radiergummi für Ihre Fotos

Dieser Beitrag erschien durch Kooperation mit chip.de

Jetzt für viele HandysDarum brauchen Sie den magischer Radiergummi für Ihre Fotos

Wenn Sie mit dem Handy Fotos machen, gibt es manchmal andere Personen oder Objekte, die im Bild stören. Mit einer praktischen Funktion lassen Sie diese wie von Zauberhand verschwinden – den magischen Radiergummi hat Google erst kürzlich für viele Handys freigeschaltet.

Ein echtes Alleinstellungsmerkmal der Google-Pixel-Phones war bislang die Software zur Bildoptimierung – allen voran der sogenannte „Magic Eraser“ – auf Deutsch „Magischer Radierer“.

Ab sofort stehen die KI-Fotobearbeitungsfunktionen aber in der App Google Fotos für alle Smartphone-Modelle bereit, sowohl unter Android OS als auch auf Apple iPhones.

Mit dem „Magischen Radierer“ werden „störende Bildinhalte“ wie im Hintergrund herumstehende Leute oder Objekte in Fotos automatisch erkannt und verschwinden mit einem Fingertipp einfach.

Dabei generiert Google Fotos den Hintergrund rasend schnell und nahezu perfekt. Wer mag, kann auch einfach händisch beliebige Bildbereiche einkreisen und per Knopfdruck verschwinden lassen.

Der magische Radiergummi kann Objekte und Personen automatisch aus Bildern entfernen.

Bild: Google Der magische Radiergummi kann Objekte und Personen automatisch aus Bildern entfernen.

Magischer Radiergummi für Ihre Fotos

Allerdings kommt nicht jeder Google-Fotos-Nutzer in den Genuss der KI-Bildbearbeitungsfunktionen wie dem „Magischen Radierer“. Voraussetzung ist ein bezahltes Google-One-Abonnement, das auch den Cloud-Speicherplatz der Foto-App von 15 GByte auf Minimum 100 GByte erweitert.

Google kündigt in einem Blogbeitrag an, ab Anfang März ein kostenloses Probe-Abo für Google One in Google Fotos anbieten zu wollen. Damit können Interessierte die neuen Fotobearbeitungsfunktionen dann für eine gewisse Zeit völlig kostenlos ausprobieren.

Aktuelle Artikel des Partners auf FOCUS online lesen

Lesen Sie auch

„Digital“ abonnieren

11.02.2023 mgrimm

Digitales Foto-Bearbeitung bezieht sich auf die Verwendung von Computerprogrammen zur Änderung oder Verbesserung von digitalen Bildern. Diese Technik wird häufig in der Fotografie, Kunst, Werbung und anderen Bereichen eingesetzt, in denen es wichtig ist, ein perfektes Bild zu erstellen.

Eine der häufigsten Anwendungen der digitalen Foto-Bearbeitung ist das Entfernen von Fehlern oder Unvollständigkeiten aus den Bildern, wie z.B. Kratzer, Flecken, rote Augen usw. Es gibt auch viele fortgeschrittene Funktionen, die es ermöglichen, das Aussehen eines Bildes zu verbessern, indem Farben und Kontraste angepasst werden, die Helligkeit und Schärfe verbessert werden oder das Hintergrundbild geändert wird.

Es gibt viele verschiedene Arten von Software zur digitalen Foto-Bearbeitung, von kostenlosen und einfachen Tools bis hin zu professionellen Programmen mit vielen Funktionen. Einige der bekanntesten Programme sind Adobe Photoshop, GIMP, Lightroom und Corel PaintShop Pro.

Es ist wichtig zu beachten, dass es bei der digitalen Foto-Bearbeitung einfach ist, das Aussehen eines Bildes zu verändern oder zu verbessern, aber es ist auch einfach, es zu übertreiben und das Aussehen unnatürlich oder unecht aussehen zu lassen. Ein erfahrener Fotograf oder Bearbeiter kann das Aussehen eines Bildes verbessern, ohne dass es unnatürlich aussieht, aber es erfordert Übung und Geschick.

Zusammenfassend kann gesagt werden, dass die digitale Foto-Bearbeitung ein wichtiger Teil der modernen Fotografie und Bildverarbeitung ist. Es ermöglicht es, Fehler und Unvollständigkeiten aus den Bildern zu entfernen und das Aussehen zu verbessern, aber es ist wichtig, es mit Bedacht und Fachkenntnis zu tun, um natürliche und realistische Ergebnisse zu erzielen.

wie muß ein gutes Foto ausehen

Es gibt keine eindeutige Antwort auf die Frage, wie ein gutes Foto aussehen muss, da es von verschiedenen Faktoren abhängt, wie z.B. dem Zweck des Fotos, dem Künstlerischen Geschmack des Fotografen und dem Betrachter. Hier sind jedoch einige Merkmale, die oft als wichtig für ein gutes Foto angesehen werden:

  1. Klarheit und Schärfe: Ein gutes Foto sollte klar und scharf sein, um Details und Texturen hervorzuheben.

  2. Belichtung und Kontrast: Eine gute Belichtung und ein angemessener Kontrast sind wichtig, um ein ausgewogenes Aussehen zu erzielen.

  3. Farbbalance: Eine angemessene Farbbalance ist wichtig, um das Aussehen des Bildes realistisch und ansprechend zu gestalten.

  4. Komposition: Eine gute Komposition kann dazu beitragen, dass ein Foto ansprechend und ausdrucksstark aussieht, indem es den Fokus auf die wichtigsten Elemente des Bildes legt.

  5. Kontext und Bedeutung: Ein gutes Foto sollte eine Bedeutung oder einen Kontext haben, der es dem Betrachter ermöglicht, eine Verbindung zu dem abgebildeten Thema herzustellen.

Natürlich kann ein Foto gut aussehen und trotzdem nicht alle diese Merkmale aufweisen. Es ist auch wichtig zu beachten, dass die subjektive Meinung eines Betrachters darüber, wie ein gutes Foto aussieht, von verschiedenen Faktoren abhängt, wie z.B. seinen Vorlieben, Erfahrungen und kulturellen Hintergründen.

Wie die iPhone-Kamera die Spiegelreflexkameras eingeholt hat

Es ist ein offenes Geheimnis, dass Smartphones Aufnahmen beim Schießen und nach der Belichtung bearbeiten. Was passiert aber im Hintergrund? Wir erklären es.

Feature

In den Kamera-Apps von Samsung und Google für Android steckt(e) eine schwere Lücke

Image: Perfect Corp.

Etwas Geschichte

Obwohl das erste iPhone eine Kamera eingebaut hatte, hat es Apple auf der legendären Keynote vom 9. Januar 2007 als eine Dreieinigkeit anderer Funktionen angepriesen: Internet-Gerät, iPod und ein Telefon. Doch mit der Weiterentwicklung des Smartphones wurde klar: Die Kamera ist eins der Kaufargumente bei der Auswahl eines Smartphones. Spätestens 2015 haben die Smartphones die führende Rolle bei der Fotografie übernommen: In dem Jahr wurden weltweit laut DXO Mark rund eine Billion Fotos gemacht, Großteil davon mit einem Smartphone. Ungefähr zu der gleichen Zeit, zwischen 2013 und 2015, begannen die Smartphone-Hersteller, ernsthaft in die Entwicklung der eigenen Kameras zu investieren. Laut DXO Mark hatten Smartphones 2013 die digitalen Kameras bei Verkäufen überholt. Ab dem iPhone 5S als bestverkaufter Kamera und dem Nokia Lumia 1020 beginnt die Ära, in der Smartphones ihre größeren Wettbewerber – die DSLRs – nicht nur bei Verkäufen, sondern auch bei der Qualität der Bilder aufzuholen beginnen. Rund zehn Jahre später hält man eine Überschrift “Ist ein iPhone 14 Pro besser als DSLR?” nicht mehr für Clickbaiting, sondern für einen ernsthaften Vergleichstest.

Unterschiede zwischen einer Smartphone-Kamera und DSLR

Doch wie kommt man überhaupt dahin, eine Smartphone-Kamera mit der vollwertigen DSLR zu vergleichen? Schließlich haben beide Lösungen unübersehbare Unterschiede. Während DSLRs über einen Sensor von 35 mm Größe verfügen können, ist ein Fotosensor im herkömmlichen Smartphone wenige Millimeter groß. Als Standard und in vielen Profi-Kameras eingesetzt gilt der Bildsensor in der sogenannten Full-Frame-Größe, 36 mm mal 24 mm. Dieser hat seinen Ursprung im analogen Film, eben in dieser 35-mm-Größe. Ein Full-Frame-Sensor hat eine Fläche von 864 Quadratmillimetern. Selbst das neueste iPhone 14 Pro Max kommt mit seinen Kameras nicht ran: Laut Techinsights finden sich im Kamerasystem der neuesten iPhones vier Bildsensoren von jeweils 96,6 mm² (Hauptkamera), 40 mm² (Ultrawinkel), 26,5 mm² (Telekamera) und 18 mm² (Lidar). Das ist ein Unterschied von Faktor zehn, was automatisch bedeutet, dass der größere Sensor deutlich mehr Licht und dementsprechend Informationen einfangen kann.

Eine weitere Eingrenzung der Smartphone-Kameras, die größenbedingt ist, sind die absoluten Pixel-Größen in einem Sensor. Die DSLRs können Pixel in der Größe bis vier Mikron führen, beim iPhone 14 ist bei der größten Kamera ein Pixel lediglich 1,22 Mikron groß. Das hat direkte Auswirkungen auf die Farbdarstellung: Je größer ein Pixel, desto mehr Information kann er einfangen, desto genauer kann diese Information sein. Hier kommt Bit pro Pixel als Maß: Größere Pixel können die Information im 12- bis 14-Bit-Format kodieren, also beispielsweise 4.096 bis 16.384 Farbschattierungen pro Pixel speichern. Die meisten Smartphone-Kameras kommen mit 10 Bit pro Pixel aus, das heißt, sie können bis zu 1.024 Farbschattierungen speichern. Die iPhones 12 und neuer haben allerdings diese Grenze überschritten: Im ProRaw-Format können die iPhones Bilder im 12-Bit-Format speichern.

Während Smartphone-Hersteller in den letzten Jahren bei der Sensorgröße etwas aufgeholt haben – ein hochwertiges Smartphone wie ein iPhone 14 Pro hat in etwa einen Sensor wie in einer High-End-Kompaktkamera, bleiben weitere Limitierungen erhalten: Ein recht eingeschränkter optischer Zoom wegen winziger physischer Abmessungen. Diese Einschränkung ist den optischen Gesetzen geschuldet und lässt sich mit cleveren Technologiegriffen nicht umgehen:

Die Kamera-Blende lässt sich direkt in der Foto-App auf einem iPhone nicht einstellen, es gibt mittlerweile viele gute Foto-Apps, die mehr Freiheit den NutzerInnen gewähren.

Worauf aber die Smartphone-Kameras im Unterschied zu DSLRs zurückgreifen können, sind deutlich überlegene Prozessoren, die sich mit der Bearbeitung der Fotos beschäftigen.

Wie macht ein Prozessor die Beschränkungen einer Smartphone-Kamera wett?

Zwar haben moderne DSLR-Kameras ebenfalls Prozessoren, die immer mehr schlaue Funktionen erlauben, doch die können mit den aktuellen Prozessoren der Smartphone-Hersteller nicht mithalten. Apple entwickelt zum Beispiel einen eigenen Imagesensor-Prozessor, der für die Bildbearbeitung zuständig ist. Dieser Bildprozessor erledigt mehrere Schritte, bevor ein Lichtsignal zu einem fertigen Bild auf dem Bildschirm wird.

Eine kurze und verständliche Übersicht dieser Prozesse liefern die Entwickler der Halide-App in einem Blogpost. Als Erstes startet der Prozessor eine Dekonstruktion der Farbdaten aus den Helligkeitswerten des bestimmten Bildsignals, das der Bildsensor eingefangen hat. Das Problem dabei: Die Bildsensoren sind farbenblind und können nur die Lichtintensität unterscheiden. Um die Farbdaten einzufangen, wird jeder Pixel auf dem Sensor mit einem Farbfilter – entweder Rot, Blau oder Grün – überdeckt. So kann ein Pixel die Helligkeit eines Farbkanals speichern. Um ein vollständiges Bild darauf zu rekonstruieren, versuchen unterschiedlich schlaue Algorithmen aus den Helligkeitswerten der benachbarten Pixel den Helligkeitswert zwei anderer fehlenden Farbkanäle bei dem “eigenen” Pixel zu raten.

Einer der nächsten Schritte ist die Umwandlung der eingefangenen Farbschattierungen in die Farbschattierungen, die das jeweilige Display darstellen kann. Die sind nicht immer gleich – für gewöhnlich kann ein Bildschirm deutlich weniger Farben darstellen, als beispielsweise das menschliche Auge (um 10 Millionen Farben) unterscheiden kann.

Mit dem Begriff “Farbe” folgt der Begriff Weißabgleich, denn das menschliche Auge kann die Farben nur bei Helligkeit unterscheiden. Die Farbperzeption bei Menschen orientiert sich nach der Umgebungsbeleuchtung und regelt diese automatisch: So kann eine rote Farbe im warmen Sonnenlicht als auch im kalten Kunstlicht als rot gesehen werden. Die gleiche Anpassung unternehmen die Bildprozessoren, damit die Farben angemessen jeder Beleuchtung dargestellt werden können.

Carravaggio und Tizian – wie sie die moderne Smartphone-Fotografie beeinflussen?

Noch ein Nachteil der kleinen Smartphone-Kameras mit nicht genügend Licht und entsprechend wenig Informationen hat man mit einem schlauen Trick wettgemacht. Maßgeblich mitgeschaltet hat die neue Entwicklung der Standford-Professor und später Google-Mitarbeiter Marc Levoy. Noch 2010 hat er und Kollegen eine offene API-Plattform entwickelt, die Foto-Hardware und Software in Einklang brachte und so genau die Imagesensoren und Linsen kontrollierte, so dass mehrere gleiche Bilder mit der unterschiedlichen Belichtung möglich waren. Die unterschiedliche Belichtung der gleichen Szene machte den sogenannten Caravaggio-Effekt möglich: Tiefe Schatten und gleichzeitig hell beleuchtete Stellen in einem Foto, mit einer kleinen Kamera schier unmöglich.

The Taking of Christ-Caravaggio (c.1602).jpg
By Caravaggio – Self-scanned, Public Domain, Link

Einige Jahre später hat Google bzw. sein Pixel-Team seine Bearbeitung etwas angepasst, und eher die Werke von Tizian mit helleren Schatten und kräftigeren Farben als Grundlage genommen, der Trick blieb aber der Gleiche: Dafür wurden mehrere Bilder zu einem endgültigen Foto zusammengefügt.

Titian Bacchus and Ariadne.jpg
“Bachhus und Ariadne”, Tizian, Public Domain, Link

Was ist HDR und warum es die mobile Fotografie revolutioniert hat

High Dynamic Range, oder kurz HDR, bedeutet in dem Fall, dass das Bild gleichzeitig extrem dunkle und extrem helle Bereiche des Motivs naturgetreu darstellen kann. Während die DSLR diesen großen Kontrastbereich mithilfe der Sensoren erreichen, müssen die Smartphone-Kameras tricksen: Das Smartphone ist so programmiert, dass die Kamera in Sekundenschnelle unterschiedliche Bilder vom gleichen Motiv mit unterschiedlichen Belichtungen aufnimmt: Mit viel Schatten auf dem einen und viel Sonne bzw. Licht auf dem anderen. Apple nennt die Technologie Deep Fusion (ab iPhone 11), HDR bzw. Smart HDR gab es noch mit früheren iPhones. Ab iPhone 14 (Pro) hat Apple seine Deep-Fusion-Technologie noch weiter verfeinert: Statt sechs Frames erstellt das Smartphone zwölf Frames, was deutlich mehr Informationen liefert. Auch die Bionic Engine mit ihren neuronalen Kernen spielt eine Rolle, muss doch der Prozessor die komplette Bearbeitung erledigen.

Was bringt die Zukunft?

Alle Smartphones, nicht nur das iPhone, sind in den letzten Jahren hässlicher geworden. Gleichzeitig ist die Smartphone-Fotografie endgültig im Profi-Bereich angekommen. Die immer bessere Qualität der Fotos ist mehreren Entwicklungen geschuldet: Doppelte, gar dreifache Kameraanordnungen, gegebenenfalls mit Infrarotsensoren wie Lidar, liefern Rauminformationen, die früher nur Kameras mit großen Objektiven eigen waren. Die Erfindung von HDR hat dazu beigetragen, dass selbst kleine Fotosensoren in Handys genügend Informationen einfangen können, um naturgetreu schwierige Texturen, Objekte bei schlechter Belichtung, ja gar Sterne des Nachthimmels darstellen zu können.

In den letzten Jahren haben die Smartphone-Hersteller immer größere und entsprechend bessere Fotosensoren zumindest in die Hauptkameras eingebaut. Eben deswegen haben die meisten Handys mit guter Kamera die sogenannten Kamera-Buckel auf der Rückseite. Das hat sich jedoch positiv auf der Qualität der Fotos ausgewirkt.

Mit einem Problem müssen die Smartphone-Hersteller jedoch noch kämpfen: Der optische Zoom lässt sich nur schwer mit Software-Mitteln ersetzen. In einem Bereich kann jedoch die Computational Photography am Smartphone die herkömmlichen DSLRs leicht überholen – in der Verwaltung der Fotomediatheken. Schon jetzt ist die Suche am iPhone so stark, als dass das Gerät ohne Probleme Motive und gar Texte in Fotos finden kann. Mit iOS 16 lassen sich Duplikate leicht herausfiltern und löschen. Der nächste logische Schritt wäre hier, aus der Serie ähnlicher Fotos das Beste heraussuchen und den Rest zur Löschung vorschlagen. Apps wie Gemini können die Aufgabe übernehmen, doch wir hätten gerne eine native Lösung von Apple für die eigene Mediathek.

, Redakteurin

Halyna Kubiv ist seit 2010 bei der Macwelt. Nicht nur Apple-Produkte sind ihre Leidenschaft, sondern auch Themen rund um Fitness und Gesundheit.

Es gibt viele Möglichkeiten, digitale Fotos zu verbessern. Hier sind einige der häufigsten Methoden:

  1. Korrektur von Belichtung und Kontrast: Verwenden Sie die Funktionen zur Anpassung von Belichtung und Kontrast, um das Aussehen des Bildes anzupassen.

  2. Rote-Augen-Korrektur: Verwenden Sie eine Rote-Augen-Korrektur-Funktion, um das häufige Problem der roten Augen bei Fotos zu beheben.

  3. Entfernen von Flecken und Kratzern: Verwenden Sie eine Funktion zur Reinigung von Flecken und Kratzern, um Unvollständigkeiten im Bild zu entfernen.

  4. Schärfen und Glätten: Verwenden Sie Funktionen zur Schärfen- und Glättungskorrektur, um das Aussehen des Bildes zu verbessern.

  5. Anpassen von Farbe und Helligkeit: Verwenden Sie Funktionen zur Farbanpassung und Helligkeitskorrektur, um das Aussehen des Bildes zu verbessern.

  6. Hintergrundänderung: Verwenden Sie Funktionen zur Hintergrundänderung, um den Hintergrund eines Bildes zu entfernen oder zu ändern.

Es ist wichtig zu beachten, dass es bei der digitalen Foto-Bearbeitung einfach ist, das Aussehen eines Bildes zu verändern oder zu verbessern, aber es ist auch einfach, es zu übertreiben und das Aussehen unnatürlich oder unecht aussehen zu lassen. Daher ist es wichtig, die Funktionen mit Bedacht und Fachkenntnis zu verwenden, um natürliche und realistische Ergebnisse zu erzielen.

Einige der besten Tools zur digitalen Foto-Bearbeitung sind Adobe Photoshop, Lightroom, GIMP und Corel PaintShop Pro. Es gibt auch viele kostenlose Online-Tools, die einfach zu verwenden sind und gute Ergebnisse liefern können.