Stabilizacja obrazu

Stabilizacja obrazu w smartfonach

Stabilizacja obrazuPodczas waszej przygody z fotografią, z pewnością spotkaliście się z terminami takimi jak optyczna i cyfrowa stabilizacja obrazu. Dzisiaj postaram się z grubsza przybliżyć oba te systemy, oczywiście spoglądając na nie pod kątem zastosowania w smartfonowych modułach fotograficznych.

O nieostrościach na zdjęciach

Przyjrzyjmy się najpierw krótko rodzajom nieostrości, które występują na zdjęciach. Nieostrości te generalnie dzielimy na trzy rodzaje. Mogą one być związane z głębią ostrości, z ruchem fotografowanego obiektu, a także powstawać przez niestabilność samego aparatu fotograficznego w momencie fotografowania.

Na głębię ostrości w przypadku fotografowania typowym smartfonem mamy raczej dosyć ograniczony wpływ. Z bardzo prostego powodu: moduły fotograficzne wbudowane w telefony nie posiadają mechanizmu przysłony, który to mechanizm w „normalnych” aparatach służy do regulowania ilości światła przechodzącego przez obiektyw, a przy okazji właśnie do sterowania głębią ostrości. W przypadku smartfonów możemy wyłącznie wybierać punkt fotografowanej sceny, na który wyostrzamy obiektyw, a także fizycznie przybliżać lub oddalać aparat od tematu zdjęcia. Oba te posunięcia wpływają na rozkład ostrości planów na finalnym kadrze.

Wszyscy wiemy, jak trudno ostro uchwycić na zdjęciu szybko poruszający się obiekt. Jeżeli czas naświetlania jest na tyle długi, że fotografowany cel zdąży się wyraźnie przemieścić w czasie wykonywania ujęcia, to oczywiście nie zarejestruje się on na powierzchni światłoczułej w sposób ostry. W przypadku smartfonów jedynym sposobem przeciwdziałania takiej sytuacji, jest podniesienie czułości sensora światłoczułego, czyli podwyższenie parametru powszechnie zwanego ISO. Kiedy matryca staje się bardziej czuła na światło, to wystarczy ją krócej naświetlać, żeby uzyskać pożądaną ekspozycję. Krótsze naświetlanie, to mniejsza szansa na znaczną zmianę położenia celu fotografowania w czasie trwania rejestrowania obrazu. Jednym słowem jest to sposób na ostre odwzorowanie ruchomego tematu na zdjęciu. Ale nie ma róży bez kolców. Podnosząc czułość matrycy, podnosimy jednocześnie poziom wszelkich zakłóceń, czyli sygnałów produkowanych przez matrycę, ale nie związanych bezpośrednio z padającym na nią światłem. Zakłócenia takie są zawsze obecne w czasie pracy elementu światłoczułego. W efekcie – od pewnego poziomu ISO, zależnego od aparatu – otrzymujemy na zdjęciu wyraźnie widoczny i przeszkadzający tzw. szum.

Nawiasem mówiąc właśnie poprzez podbijanie parametru ISO działają w smartfonach programy typu „tryb sportowy” czy „korekcja drgań”. Uzyskany dzięki wyższej czułości krótszy czas naświetlania umożliwia rejestrowanie dynamicznych scen i unikanie tzw. poruszenia zdjęcia, jednakże kosztem obniżonej jakości obrazu.

No właśnie – zdjęcia poruszone. To termin, który odnosi się do trzeciego typu nieostrości występującego na zdjęciach. Są one związane z drganiami samego aparatu fotograficznego podczas trwania naświetlania ujęcia. Przy zbyt długim czasie naświetlania, gdy fotografujemy „z ręki”, to pomimo ustawienia ostrości – jak to się mówi – w punkt, w dodatku na kompletnie nieruchomy temat, i tak otrzymamy nieostre zdjęcie. Dzieje się tak dlatego, bo człowiek nie jest w stanie przez dłuższy czas trzymać w ręce aparatu kompletnie nieruchomo. Badania wskazują, że przeciętnie szczyt aktywności drżenia ludzkich rąk przypada na częstotliwość 8-12 Hz. Mówiąc po ludzku, oznacza to, że około 10 razy na sekundę aparat fotograficzny trzymany w rękach podlega mocniejszemu poruszeniu.

Reguła 1/f

A co znaczy „zbyt długi czas naświetlania” przy fotografowaniu aparatem trzymanym w rękach? W czasach popularności małoobrazkowych aparatów przyjęło się w takim wypadku do ustalania najdłuższego możliwego czasu naświetlania stosować zasadę 1/f (odwrotności ogniskowej). Zasada była bardzo prosta. Należało potraktować odwrotność odległości ogniskowej obiektywu wyrażonej w milimetrach jako czas graniczny (wyrażony w sekundach). Przykład: fotografując „z ręki” obiektywem o ogniskowej 50 mm nie powinniśmy, w teorii, naświetlać zdjęć dłużej niż 1/50 s. Posługując się obiektywem dysponującym długością ogniskowej wynoszącą 200 mm, należy zaś ustawiać czas naświetlania krótszy od 1/200 s.

Zastanawiacie się prawdopodobnie teraz, czy sformułowana powyżej zasada da się w jakikolwiek sposób wykorzystać w przypadku smartfonów. Jak najbardziej! Należy tylko zamiast prawdziwej ogniskowej smartfonowego obiektywu odwrócić jej ekwiwalent dla filmu małoobrazkowego. Ekwiwalent ogniskowej związany jest z kątem widzenia. To długość ogniskowej, jaką miałby obiektyw założony do aparatu fotograficznego wyposażonego w element światłoczuły o rozmiarze „pełnej klatki” (36 mm x 24 mm), taki, aby kąt widzenia całego układu był identyczny, jak kąt widzenia naszego smartfonowego aparatu. Przykładowo: mój Sony Xperia X posiada obiektyw o ekwiwalencie ogniskowej wynoszącym 24 mm (informację tę odszukałem w specyfikacji technicznej telefonu). Wynika z tego, że trzymając tego smartfona w rękach, nie powinienem fotografować z czasem dłuższym niż 1/24 s.

Osobiście uważam, że w przypadku smartfonów czas wyliczony na podstawie odwrotności ekwiwalentu długości ogniskowej dla pełnej klatki, to czas absolutnie graniczny. Bezpieczniej jest go jeszcze pomnożyć przez 2, czyli ja – moją Xperią X – nie powinienem fotografować z czasem dłuższym powiedzmy od 1/50 s. Takie założenie wnika przynajmniej z dwóch czynników. Smartfony są lekkie, a lżejszy przedmiot jest trudniej – oczywiście do pewnego momentu – utrzymać stabilnie w rękach. Po drugie, fotografując smartfonem najczęściej trzymamy go w wyciągniętych do przodu dłoniach, a taka pozycja zdecydowanie sprzyja ich drganiom. Klasyczny aparat z wizjerem przeważnie dociskamy do twarzy, podpierając go dodatkowo nosem, a łokcie mocno dociągamy do piersi, uzyskując tym sposobem przyzwoicie stabilny chwyt.

Stabilizacja obrazu

W końcu dochodzimy do sedna dzisiejszego artykułu :), czyli to systemów stabilizowania obrazu. Oczywiście najprostszą i bardzo skuteczną metodą przeciwdziałania drganiom smartfona podczas fotografowania jest umieszczenie go na statywie. Dobry statyw umożliwia właściwie nieograniczony czas naświetlania. Jednak ja, kiedy idę fotografować smartfonem, nie znoszę targać ze sobą żadnego dodatkowego sprzętu. A już zwłaszcza ciężkiego statywu. Statyw to świetna sprawa, ale do nocnych zdjęć.

Producenci sprzętu fotograficznego od wielu lat starają się umożliwić jak najstabilniejsze fotografowanie i filmowanie „z ręki”. I tutaj ciekawostka: pierwszą na świecie ręczą kamerę filmową ze stabilizacją obrazu skonstruował w 1908 roku Polak – Kazimierz Prószyński :)

Systemy stabilizacji obrazu zaczęły trafiać do sprzętu fotograficznego w połowie lat dziewięćdziesiątych ubiegłego wieku. Były to układy tzw. optycznej stabilizacji obrazu (ang. Optical Image Stabilization, w skrócie OIS), umieszczane w obiektywach. Jeżeli się nie mylę, to pierwszy taki system pojawił się w 1994 roku u Nikona, w obiektywie wbudowanym w aparat Nikon Zoom 700VR.

W roku 2003 Minolta zaprezentowała pierwszy aparat fotograficzny ze stabilizowaną matrycą światłoczułą (model DiMAGE A1).

Dopiero w roku 2012 wszedł na rynek pierwszy smartfon wyposażony optyczną stabilizację obrazu. Była to Nokia 920.

Dla aparatów analogowych układy OIS są jedynym dostępnym rozwiązaniem stabilizowania obrazu. Jednakże w „cyfrówkach” – także tych smartfonowych – mogą zamiast nich być stosowane systemy cyfrowej stabilizacji obrazu (ang. Digital Image Stabilization, Electronic Image Stabilization, w skrócie DIS, EIS). Czym się różnią od siebie oba te rozwiązania?

Otóż różnica pomiędzy OIS a DIS jest łatwa do uchwycenia. W przypadku tej pierwszej metody „stabilizowanie” obrazu odbywa się zanim zostanie on utrwalony na kliszy lub sensorze światłoczułym.

Opiszę krótko, bez wnikania w szczegóły techniczne, jak to działa w smartfonie ze stabilizowanym obiektywem. System czujników żyroskopowych dokonuje pomiaru wychyleń telefonu podczas jego drgań, a inne czujniki określają aktualną pozycję obiektywu lub jego pewnej ruchomej części. Następnie mikroprocesor analizuje zebrane dane i na ich podstawie oblicza kierunek i wielkość niezbędnej poprawki do położenia obiektywu. Wyniki te są przesyłane do układu kontrolującego, który odpowiednio uruchamia „mikro silniczki” poruszające obiektywem (lub jego częścią). Przykładowo: obraz w wyniku drgań telefonu ucieka w lewo, to ruchomy obiektyw (lub tylko jego część) kieruje go w prawo, czego efektem jest to, że zdjęcie rejestruje się tak, jakby powstało unieruchomionym telefonem. Brzmi to wszystko kosmicznie, ale naprawdę działa! I to bardzo szybko – nawet kilkaset razy na sekundę. Można to doskonale zaobserwować na poniższym filmie mniej więcej od 20. sekundy.

Zastanawiacie się jak się owa technologia sprawuje w praktyce? Telefonem ze średniej półki cenowej – Samsungiem Galaxy A5 (2016) – byłem w stanie fotografować „z ręki” przy czasie naświetlania ustawionym na 1/8 s. Całkiem nieźle!

fot. Łukasz Gurbiel, czas naświetlania: 1/8 s.

fot. Łukasz Gurbiel, czas naświetlania: 1/8 s.

Dla cyfrowych aparatów fotograficznych istnieją także rozwiązania, w których to nie obiektyw jest częścią ruchomą, a matryca. Trafiają one nawet powoli do smartfonów.

Systemy DIS (EIS) działają na odmiennej zasadzie. Na matrycy rejestruje się fotografię lub film, a następnie oprogramowanie aparatu fotograficznego (smartfona) stara się tak przetworzyć złapany obraz, żeby zniwelować przy zdjęciach wrażenie ich poruszenia lub – dla filmów – trzęsącej się ręki. Rozwiązania tego typu sprawdzają się bardzo przyzwoicie podczas filmowania, i raczej marnie – o ile w ogóle – kiedy fotografujemy. Poniżej prezentuję film reklamowy od Sony pokazujący działanie SteadyShot – ich implementacji systemu DIS w smartfonie Sony Xperia X:

Robi wrażenie, prawda?

Casus Sony Xperia XZ – dopisane 31 października 2016 r.

Właściwie już po napisaniu tego artykułu – ale jeszcze przed jego publikacją – wpadł mi w ręce flagowy smartfon od Sony – Xperia XZ. Nie posiada on optycznej stabilizacji obrazu, ale dysponuje bardzo zaawansowaną cyfrową. Producent chwali się, że jego system jest w stanie kompensować poruszenia kamery dla wszystkich pięciu stopni swobody: pochylenia płaszczyzny telefonu względem jego obu krawędzi, rotacje względem środka, a także przesunięcia w dwóch kierunkach.

Podczas filmowania (w Full HD) system ten działa świetnie, ale co ciekawsze, mam nieodparte wrażenie, że efekty jego pracy widać również w czasie robienia zdjęć – co trochę stoi w sprzeczności z tym, co napisałem w poprzednim paragrafie na temat użyteczności DIS dla fotografii. Wydaje mi się – głowy sobie nie dam obciąć, ale może mały palec u ręki tak – że obraz jest stabilizowany w czasie aktywności autofokusa, no i oczywiście podczas samego naświetlania. DIS w Sony Xperia XZ (SteadyShot) jest naprawdę skomplikowany, korzysta – tak jak systemy OIS – z dobrodziejstw czujników żyroskopowych i akcelerometrów.

Podsumowanie

Jakie możemy wyciągnąć wnioski? Artykuł – wbrew mojej intencji – bardzo się rozrósł, więc podsumowanie będzie krótkie. Po pierwsze, niezaprzeczalnym faktem jest to, że systemy stabilizacji obrazu znakomicie ułatwiają fotografowanie i filmowanie. Po drugie, OIS jawi się jako ten bardziej uniwersalny – sprawdzi się świetnie zarówno podczas robienia zdjęć, jak i filmowania. DIS jest praktycznie użyteczny wyłącznie w wypadku kręceniu filmów, ale tutaj sytuacja być może się zmienia (patrz poprzedni paragraf).

komentarzy 8 dla "Stabilizacja obrazu w smartfonach"

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

CommentLuv badge