Apple robi użytek z sensora LiDAR. Te efekty wideo wywołują opad szczęki

Użytkownicy iPhone'a 12 Pro i iPada Pro dostają nowe narzędzie do zabawy.

Apple robi użytek z sensora LiDAR. Te efekty wideo wywołują opad szczęki
Miron Nurski

27.04.2021 | aktual.: 27.04.2021 13:56

"LiDAR w iPhonie 12 Pro to przełom, którego Apple nie potrafi sprzedać" - pisałem w listopadzie 2020 roku. Zwracałem uwagę na to, że nowy flagowiec dostał genialny sensor do mapowania otoczenia, ale jego imponujące możliwości natywnie nie zostały w żaden spektakularny sposób wykorzystane.

Początkowo LiDAR wspomagał pracę autofokusu czy poprawiał działanie trybu portretowego, ale to z grubsza tyle. Praktycznie cały ciężar promowania tego rozwiązania spadł na barki niezależnych programistów. A to jest nie w stylu Apple'a, który zawsze świetnie radził sobie z demonstrowaniem potencjału swoich technologii.

Tymczasem iOS 14.5 wprowadza nową wersji Apple Clips z efektami AR, które wykorzystują możliwości sensora LiDAR

Apple Clips to (nie taki) prosty edytor wideo, który pozwala na rejestrowanie krótkich klipów z różnymi efektami. Teraz do nakładania wybranych filtrów wykorzystywany jest zaawansowany czujnik głębi, a rezultaty - co tu dużo mówić - wywołują opad szczęki.

Dzięki LiDAR-owi nowe iPhone'y i iPady doskonale "rozumieją" otoczenie. Rozróżniają nie tylko kształt wszystkich obiektów w kadrze, ale i odległości między nimi, co wykorzystywane jest do precyzyjnego nakładania efektów. Zwróćcie uwagę jak wirtualne konfetti reaguje na otoczenie, chowając się za obiektami na pierwszym planie lub zatrzymując się na nich.

Te efekty wyglądają jak kilka godzin pracy zdolnego animatora, a nie filtr nakładany w czasie rzeczywistym przez telefon.

Aplikacja Apple Clips 3.1 dostępna jest na iPhone'ach 12 Pro i 12 Pro Max oraz iPadach Pro z 2020 i 2021 roku. Niezbędna jest aktualizacja systemu iOS i iPadOS do wersji 14.5.

Zobacz również:

Wybrane dla Ciebie
Komentarze (10)