Poznaj swojego smartfona: aparat fotograficzny

Aparat w smartfonie działa inaczej niż tradycyjne aparaty fotograficzne – nawet gdy zaliczymy do tego grona cyfrówki. W jaki sposób urządzenie przechwytuje obraz? Co oznaczają poszczególne jego parametry?

Poznaj swojego smartfona: aparat fotograficzny
Michał Puczyński

05.08.2016 | aktual.: 09.08.2016 17:21

Zalogowani mogą więcej

Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika

Z czego składa się aparat fotograficzny w smartfonie?

Najważniejszym elementem aparatu jest matryca ze światłoczułymi sensorami. Przechwytują one informacje o uderzających w nie fotonach. Liczba detektorów znajdujących się na matrycy wynosi od kilku do kilkudziesięciu milionów, a każdy z nich odpowiada za jeden piksel obrazu.

Zanim foton dotrze do sensora, musi przejść przez warstwy soczewek, które sprawiają, że światło jest odpowiednio skupione. Dzięki temu obraz nabiera ostrości. Następnie światło wędruje przez przysłonę, czyli otwór znajdujący się przed sensorem. Jego zadaniem jest ograniczenie ilości padającego na sensory światła.

W tradycyjnych aparatach możliwe jest regulowanie stopnia otwarcia przysłony, jednak w smartfonach ta część nie jest ruchoma. Jej stała pozycja pozwala obniżyć koszty produkcji i zmniejszyć ryzyko usterki, na przykład w wyniku upuszczenia telefonu.

Obraz
© blackberry.com

Chcemy jednak otrzymać obraz kolorowy, a nie czarno-biały. W tym celu nad sensorami umieszczono się filtr Bayera, czyli siatkę filtrów RGB – czerwonych, zielonych i niebieskich. Kombinacja natężenia barw podstawowych pozwala odwzorować dowolny kolor.

Jak powstaje zdjęcie?

Naciskamy więc spust migawki czy przykładamy palec do ekranu dotykowego, wysyłając do oprogramowania żądanie uchwycenia obrazu. Uruchamiany jest cały mechanizm: światło, kształtowane przez soczewki, przechodzi przez przesłonę i filtr Bayera, po czym pada na sensor. Ten pobiera dane i przetwarza je na sygnał elektryczny, który jest zapisywany w formie binarnej.

Ale po kolei. Skąd urządzenie wie, na czym skupić ostrość? W przeciwieństwie do tradycyjnych aparatów, które pozwalają regulować odległość elementów soczewki od sensora, w smartfonach, podobnie jak przysłona, jest ona zwykle stała. Ostrość jest kalkulowana na inne, ciekawe sposoby.

Proces może polegać na obliczaniu kontrastu pomiędzy poszczególnym pikselami. Flagowce LG i niektóre inne telefony wykorzystują ponadto laserowy autofocus. Promień lasera, odbijający się od powierzchni i wracający do czujnika, pozwala określić odległość od przedmiotu, na którym chcemy skupić ostrość. Jeśli znajduje się on zbyt daleko, aparat korzysta z metody obliczania kontrastu.

Obraz
© htc.com

M.in. w iPhonie 6s zastosowano detekcję fazy, polegającą na ustaleniu ostrości poprzez obliczenie odległości pomiędzy dwoma promieniami światła. HTC One (M8) ma natomiast dwie sąsiadujące ze sobą kamery: jedna stosuje obliczanie kontrastu, a druga łapie światło z wszystkich kierunków. To pozwala zmieniać ostrość na już wykonanym zdjęciu.

Kolorystyka zdjęcia jest ustalana przez oprogramowanie. Analizuje ono jasność każdej zielonej, niebieskiej i czerwonej „płytki”, i matematyczną metodą interpolacji określa końcową barwę danego piksela.

Ostatecznie wszystkie te informacje są zapisywane w postaci pliku graficznego, który w podstawowej, zrozumiałej dla procesora postaci sprowadza się do ciągu zer i jedynek. Zdjęcie ważące 5 MB jest zapisane jako ciąg 40 milionów znaków.

O czym mówią megapiksele?

Megapiksele oznaczają liczbę światłoczułych sensorów na matrycy. Pięć megapikseli to pięć milionów czujników światła. Sensory mogą jednak różnić się rozmiarami.

Wbrew pozorom miniaturyzacja nie zawsze jest lepsza. Mniejszy sensor przyjmuje mniejsze ilości światła. Większy oznacza więc większą czułość aparatu na światło, a więc i dokładniej odwzorowany obraz, zwłaszcza przy słabym oświetleniu.

Jak tłumaczy dr Roger N. Clark z Instytutu Technologii w Masachussets, w dzisiejszych aparatach niedoskonałości spowodowane wielkością sensorów są praktycznie likwidowane w procesie przetwarzania obrazu przez oprogramowanie.

Obraz
© lg.com

Kiedyś megapiksele rzeczywiście były głównie narzędziem reklamowym. Bardziej liczyła się wielkość czujników i możliwość łapania większych ilości światła. Dziś jednak – zdaniem naukowca – algorytmy są tak zaawansowane, że właśnie megapiksele są lepszym wyznacznikiem jakości aparatu.

Stabilizacja obrazu, ISO i wideo

Ważna w smartfonach jest stabilizacja obrazu, jako że zdjęcia zawsze robione są „z ręki”. Stosowane są dwie metody stabilizacji: optyczna i elektroniczna.

Metoda optyczna polega na umieszczeniu soczewki na „uprzęży” otoczonej elektromagnesami, które, kierowane informacjami z żyroskopu, odpychają ją przeciwnie do ruchu samego urządzenia. To rozwiązanie podobne do uprzęży steadicam, wykorzystywanej przez filmowców, ale zastosowane w nieporównywalnie mniejszej skali.

Metoda elektroniczna może działać dwojako: albo, w przypadku wykrycia ruchu, skracając czas przechwytywania światła, co owocuje ciemniejszym, ale wyraźniejszym zdjęciem, albo wykonując serię zdjęć i generując ostateczny obraz z najmniej rozmytych.

Jak aparat zapisuje film? Na zasadzie wykonywania szybkiej serii zdjęć, które są konwertowane do pliku wideo.

Aparaty ponadto różnią się ustawieniami ISO, decydującymi o tym, jak wiele światła przyjmują sensory. Większe ISO oznacza możliwość robienia ostrych zdjęć przy słabszym oświetleniu, ale może skutkować ziarnistością. Mniejsza wartość to pozbawione ziarna zdjęcia nocne, ale i konieczność dłuższego naświetlania, które sprawia, że każdy ruch przyczynia się do rozmycia obrazu.

Doczekaliśmy czasów, w których smartfony z górnej półki mają bardzo dobre aparaty, ale pewnego poziomu nie przeskoczą. Nie mają bowiem szans dorównać profesjonalnym aparatom DSLR z dużymi sensorami, regulacją soczewki i przysłony. Obecnie flagowce są jednak tak zaawansowane, że można nimi wykonywać zaskakująco dobrze wyglądające zdjęcia.

Komentarze (0)