Magia oprogramowania. Sprawdziłem, jak dobre zdjęcia mógłby robić 11‑letni smartfon
Aparat w starym smartfonie i nowe algorytmy poprawiające jakość zdjęć. Co wyjdzie z takiego połączenia?
02.11.2021 | aktual.: 02.11.2021 16:19
W 2020 roku porównywałem aparaty smartfonów Galaxy S oraz Galaxy S20 Ultra. To flagowe smartfony Samsunga, które dzieli dokładnie 10 lat technologicznego postępu.
Różnice w jakości zdjęć - jak nietrudno się domyślić - okazały się drastyczne. I to nie tylko po zmroku, bo stare smartfony nie radziły sobie nawet z efektywnym wykorzystaniem światła słonecznego.
Czy jednak różnice te wynikają wyłącznie ze sprzętu? Bynajmniej. Galaxy S20 ma większą matrycę o wyższej rozdzielczości i jaśniejszą optykę, ale pierwsze skrzypce gra oprogramowanie.
Żyjemy w erze fotografii obliczeniowej. W chwili naciśnięcia spustu migawki, nowe smartfony wykonują w tle serię fotografii z różnymi parametrami, które są następnie łączone, by uzyskać ładniejszy, bardziej szczegółowy obraz. Coraz częściej oprogramowanie wspomagane jest przez sztuczną inteligencję. Wytrenowane na tysiącach zdjęć algorytmy obrabiają fotkę w taki sposób, by osiągnąć narzucony przez producenta efekt.
W roku 2010 zrobione smartfonem zdjęcie było jedynie interpretacją światła, które dotarło do mikroskopijnej matrycy. AI na rynku konsumenckim było jeszcze nieobecne, a i nawet ówczesnym flagowcom zwyczajnie brakowałoby mocy obliczeniowej na bardziej zaawansowaną obróbkę. Dodajmy, że gdy Galaxy S trafił na rynek, Instagram se swoimi filtrami jeszcze nie istniał, a wbudowany edytor zdjęć pozwalał jedynie na ich kadrowanie.
Czy nie zastanawialiście się jednak, jak 11 lat temu wyglądałby rynek fotografii mobilnej, gdyby prace nad fotografią obliczeniową przebiegły szybciej i gdybyśmy już wtedy mogli korzystać z dzisiejszych algorytmów? Nie zastanawialiście? Cóż - ja się zastanawiałem, więc i tak to sprawdziłem.
Samsung Galaxy S: zdjęcie z 11-letniego telefonu + sztuczna inteligencja
Na tapet wziąłem fotkę zrobioną o zachodzie słońca. Dla smartfonów z aparatami bez HDR-u tego typu scenerie były zabójcze, więc nic dziwnego, że fotka odbiega od dzisiejszych standardów.
Początkowo myślałem, że robotę załatwi podbicie cieni, ale nie - rozpiętość tonalna okazała się tak niska, że zwykły edytor zdjęć był w stanie wydobyć niewiele więcej niż tonę szumu. Trzeba było sięgnąć po cięższy kaliber.
Sięgnąłem po aplikację o nazwie Luminar, czyli edytor zdjęć bazujący na uczeniu maszynowym. Program jest nafaszerowany filtrami AI, których zasada działania przypomina to, co dzisiejsze smartfony robią same z siebie.
Zacząłem od nałożenia filtru o nazwie AI Image Enhancer, który jest inteligentnym HDR-em. Ten wydobył szczegóły z cieni, delikatnie zniwelował przepalenia oraz podsycił kolory.
Później przeszedłem do eksperymentowania z filtrami odpowiedzialnymi za poprawę wyglądu nieba, podbijania struktury i usuwania szumów. Manipulowałem suwakami do momentu, gdy finalny najbardziej przypominał zdjęcie z Galaxy S20 Ultra.
Na sam koniec zgrałem obrobione zdjęcie na flagowca Samsunga i użyłem wbudowanego narzędzia do przetwarzania obrazu. Efekt ten pozwolił na ostateczne doszlifowanie fotki.
Finalnie zdjęcie wygląda tak:
A tu porównanie zdjęć z Galaxy S i Galaxy S20 Ultra przed i po obróbce:
Najwięcej problemów podczas obróbki sprawiło niebo. Przez brak HDR-u i bardzo niską rozpiętość tonalną, jasne partie zdjęcia są po prostu przepalone i pozbawione jakichkolwiek szczegółów, na których można by pracować.
Wnioski? Oprogramowanie to istotny klucz do dobrego zdjęcia, ale niejedyny
Same algorytmy AI wystarczają, by zauważalnie skrócić dystans między zdjęciami zrobionymi smartfonami, które dzieli 10 lat technologicznego postępu.
Tylko no właśnie - skrócić, ale nie usunąć całkowicie. "Z pustego i Salomon nie naleje", więc dobrej jakości podzespoły także są ważne. Przynajmniej na razie, strach myśleć, jak będą działać mobilne aparaty za kolejną dekadę.
Zobacz także: