Spisu treści:

Od 0, 11 megapikseli do asystentów sieci neuronowych: jak ewoluowały kamery w smartfonach
Od 0, 11 megapikseli do asystentów sieci neuronowych: jak ewoluowały kamery w smartfonach
Anonim

Krótka wycieczka po historii fotografii mobilnej.

Od 0, 11 megapikseli do asystentów sieci neuronowych: jak ewoluowały kamery w smartfonach
Od 0, 11 megapikseli do asystentów sieci neuronowych: jak ewoluowały kamery w smartfonach

Aparat w smartfonie stał się integralną częścią naszego życia: z jego pomocą zawsze możesz uchwycić ważny moment i podzielić się nim z innymi. Jednak aby to się urzeczywistniło, potrzeba było 20 lat postępu technicznego, redystrybucji rynku sprzętu fotograficznego i wielu innowacji. Postanowiliśmy przypomnieć sobie, jak fotografia mobilna wdarła się do naszej codzienności i jakie firmy sprawiły, że stało się to proste i przystępne.

Pierwsze telefony z aparatem

Po raz pierwszy aparat pojawił się w telefonie w 1999 roku: japońska firma Kyocera wypuściła model VP-210, który umożliwiał prowadzenie wideorozmów. Aparat znajdował się z przodu i rejestrował twarz właściciela z szybkością 2 klatek na sekundę. Mogła też robić selfie o rozdzielczości 0,11 megapiksela i przechowywać je w pamięci urządzenia w ilości do 20 sztuk.

Kamera telefoniczna Kyocera VP-210
Kamera telefoniczna Kyocera VP-210

W kolejnych latach kamery mobilne szybko się rozwijały pod naporem konkurencji, a już w 2004 r. osiągnięto kamień milowy w postaci 1 miliona pikseli (1 megapiksel). A w 2005 roku rynek zaszokowały dwa modele, które można nazwać pierwszymi telefonami z aparatem: Nokia N90 i Sony Ericsson k750i. Używali 2-megapikselowych aparatów z autofokusem i robili ostre zdjęcia, a nie rozmazane abstrakcje. To wtedy zaczęło się zmieniać nastawienie użytkowników do fotografii mobilnej: na Flickr pojawiły się grupy tematyczne, ludzie zaczęli wymieniać się zdjęciami otrzymanymi na telefony i dyskutować o nich.

Nokia N90 i Sony Ericsson k750i
Nokia N90 i Sony Ericsson k750i

Z każdym kolejnym rokiem liczba osób robiących zdjęcia telefonem rosła wykładniczo. Wydanie iPhone'a w 2007 roku zmieniło nastawienie do urządzeń jednofunkcyjnych: smartfony zaczęły zastępować odtwarzacze MP3, a następnie amatorskie aparaty fotograficzne i wideo.

Świt Instagrama

Rynek aparatów fotograficznych załamał się w 2010 roku wraz z uruchomieniem Instagrama. Użytkownicy chcieli uzyskać atrakcyjne zdjęcie tak łatwo i szybko, jak to możliwe i opublikować je w sieciach społecznościowych.

Dynamika sprzedaży aparatów i smartfonów
Dynamika sprzedaży aparatów i smartfonów

Jednocześnie poprawiła się jakość kamer mobilnych. Wprowadzony w 2011 roku iPhone 4s otrzymał 8-megapikselowy aparat i światłoczułą optykę z przysłoną f/2, 4. Te cechy pokrywały większość potrzeb: naciśnij przycisk, uzyskaj jasną ramkę i wrzuć ją na Instagram.

Z biegiem czasu przetwarzanie obrazów w smartfonach stało się bardziej agresywne: kontrast, nasycenie i ostrość konturu na pierwszym miejscu, a naturalność obrazu znikała w tle. Ale były też próby wprowadzenia profesjonalnej technologii do aparatów mobilnych. Tak więc Nokia w 2012 roku wyprodukowała telefon z aparatem 808 PureView.

Nokia 808 PureView
Nokia 808 PureView

Model wyróżniał fenomenalne jak na tamte czasy cechy. Rozdzielczość aparatu wynosiła 41 megapikseli, a fizyczny rozmiar sensora to 1/1,2″. Został również wyposażony w mechaniczną migawkę, wbudowany filtr ND, obiektyw Carl Zeiss z przysłoną f/2, 4 i ksenonową lampą błyskową.

Niestety, inni producenci nie spieszyli się z naśladowaniem Nokii, opierając się na filtrach i innych ozdobnikach.

Więcej aparatów, dobrych i innych

W pewnym momencie firmy zdecydowały się na zwiększenie liczby aparatów w smartfonach. W 2011 roku wypuszczono HTC Evo 3D i LG Optimus 3D, które wykorzystywały po dwa obiektywy do tworzenia zdjęć stereoskopowych. Technologia okazała się jednak nieodebrana i producenci na kilka lat zapomnieli o takich eksperymentach.

Podwójne aparaty w HTC Evo 3D
Podwójne aparaty w HTC Evo 3D

Wiosną 2014 roku na rynku pojawił się HTC One M8. Smartfon otrzymał moduł pomocniczy do pomiaru głębokości i oddzielenia obiektu od tła. Tym samym firma wdrożyła tryb portretowy dwa lata wcześniej niż Apple.

Prawdziwy boom nastąpił w 2016 roku, kiedy to najwięksi producenci zaprezentowali swoje rozwiązania. Jednocześnie nie było jednego zdania, dlaczego smartfon potrzebuje dwóch aparatów. Na przykład Huawei promował fotografię monochromatyczną za pomocą P9, który opracował wspólnie z Leicą. LG G5 polegał na shirik, a Apple wprowadził teleobiektyw do portretów i zoom optyczny w iPhonie 7 Plus.

Aparat iPhone 7 i 7 Plus
Aparat iPhone 7 i 7 Plus

Jak się okazało, dwa aparaty to nie limit. Teraz prawie wszystkie smartfony na rynku wyposażone są w trzy obiektywy o różnych ogniskowych, a także aparaty do makrofotografii i pomiaru głębi.

Wzrastająca charakterystyka

Jakość aparatów mobilnych zawsze ograniczały fizyczne ograniczenia: niewielka grubość obudowy nie pozwalała na wyposażenie smartfonów w wysokiej jakości optykę i duże sensory. Jednak użytkownicy domagali się usprawnień, firmy starały się zaspokoić ich potrzeby.

Skończyło się więc na aparatach wystających kilka milimetrów z ciała. Wzrosły też fizyczne wymiary sensorów: o ile pięć lat temu wahały się one w granicach 1/3″, to teraz na rynku pojawiły się Samsung Galaxy S20 Ultra i Huawei P40 z sensorami 1/1, 3″. Sensory obrazu zostały powiększone prawie dziewięciokrotnie, co znacząco poprawiło jakość zdjęć.

Aparat telefonu Huawei P40 Pro
Aparat telefonu Huawei P40 Pro

Duża powierzchnia sensorów pozwoliła na zwiększenie rozdzielczości. Kamery mobilne 48 MP i 64 MP stały się normą, podczas gdy Samsung i Xiaomi osiągnęły już kamień milowy 108 MP. Jednak zdjęcia w takiej rozdzielczości ważą za dużo, więc inżynierowie poszli na sztuczkę: łączone są informacje z sąsiednich pikseli. Obniża to rozdzielczość, ale w zamian dostajemy mniej szumów i szerszy zakres dynamiki.

Co dalej

Wszystkie te innowacje sprawiły, że smartfony są idealnym zamiennikiem cyfrowych aparatów typu point-and-shoot. Niemniej jednak wciąż mają miejsce na rozwój. I nawet jeśli cechy fizyczne dotkną sufitu, oprogramowanie zawsze przyjdzie na ratunek.

Teraz fotografia obliczeniowa nabiera rozpędu: aparat wykonuje serię zdjęć, a oparte na nich sieci neuronowe zbierają idealną klatkę, tłumiąc szumy, wyrównując jasność i korygując kolor. Metoda stosowana jest w Google Pixel 4, iPhone 11, Huawei P40 i wielu innych smartfonach. Przetwarzanie odbywa się automatycznie i niezauważalnie dla użytkownika – widzi tylko wynik.

Wraz ze wzrostem wydajności możliwości kamer stają się coraz szersze. Mogą już nagrywać wideo i przeprowadzać obróbkę w czasie rzeczywistym: rozmywać tło lub robić je czarno-białe, pozostawiając obiekty w kolorze. Rozwija się też kierunek rzeczywistości rozszerzonej: Apple wyposażył już iPada Pro w czujnik LiDAR do pracy z aplikacjami AR, a wkrótce technologia pojawi się także w iPhonie.

Kamery mobilne stają się kompleksem sprzętowo-programowym, którego możliwości nie do końca rozumiemy. Dlatego ciekawiej jest śledzić najnowsze osiągnięcia w tej dziedzinie i samemu je testować.

Zalecana: