Endriu

Jak działa UbiFocus w Mi4?

Recommended Posts

A czy mógłbyś w wolnej chwili zrobić zdjęcie ubifocus z jakimś ruchomym obiektem? To by rozwiało wszelkie wątpliwości: jeśli pozycja tego obiektu na wszystkich "wersjach" zdjęcia byłaby identyczna, to byłby dowód, że fizycznie robione jest tylko 1 zdjęcie, a nie kilka. I odwrotnie.

Share this post


Link to post
Share on other sites

Jest robione jedno zdjęcie, przecież to widać na ostatnim zdjęciu.

Gdyby było kilka, to zdjęcie byłoby dobrej ostrości na całej powierzchni, zaś na kadrze Acida musiała być zbyt duża rozbieżność głębi poszczególnych elementów i przez to funkcja aparatu nie dała temu rady (zbyt duża rozbieżność, lub po prostu odległość od najbliższego elementu do aparatu była zbyt mała) ;)

 

Ja tak to widzę.

Share this post


Link to post
Share on other sites

Jak ruszę to będzie rozmazane. UbiFocus trzeba robić trzymając stabilnie telefon. Aparat nie robi fizycznie 5 zdjęć. To tak jakby nałożyć warstwy danych jedną na drugą, gdzie każda ma inne informacje o ostrości. HDR robi podobnie.

Share this post


Link to post
Share on other sites

Nie, HDR na 100% robi kilka zdjęć (zapewne 3). Widziałem to po tym, jak na niektórych HDR-ach z MI2S wyglądają ruchome obiekty. Np. człowiek jest przecięty na pół – nogi już zrobiły kolejny krok, a tułów został w miejscu. Choć dziwne jest, że nie widać tego zjawiska na fotkach przy b. mocnym świetle - pewne działa tu algorytm "usuwania duchów". Przy gorszym świetle widać to b. dobrze.

 

Ale już się domyślam jak działa Ubifocus robiąc jedno zdjęcie. Wcześniej robi mapę ostrości, aby uzyskać dane o odległości obiektów. Zapewne robi ją "przejeżdżając" mechanizmem ustawiającym ostrość przez cały jej zakres (pewnie - dla ułatwienia - skokowo, np. w 5 krokach). Wtedy w locie robi tę mapę i może właśnie do tego potrzebna jest duża moc obliczeniowa CPU, stąd specjalne wsparcie ze strony CPU jest tu potrzebne. Następnie robi jedno zdjęcie, zapewne tak, aby głębia ostrości była jak największa. A potem to już tylko użytkownik wskazuje co ma być pozostać ostre, a co zostanie sztucznie (choć ładnie) rozmyte – tu też specjalne wsparcie ze strony CPU bardzo pomoże.

 

Jeśli działa to tak, jak napisałem wyżej, to rzeczywiście spokojnie wszystko mieści się w jednym pliku JPG, a mapa ostrości w zawartych w nim metadanych. Dla normalnego softu (warto sprawdzić np. QuickPic) taki JPG jest zwykłym zdjęciem, z ostrością mniej więcej wszędzie.

Edited by latet

Share this post


Link to post
Share on other sites

Acid pisal ze zdjecie ma taka ostrosc jaka w galerii ustawi. Ja mysle ze on robi kilka zdjec ale za jednym otwarciem migawki czyli np jesli normalne zdjecie ma czas ekspozycji 1/500 to zrobienie ich piec moze przytrzymac migawke do 1/100 jak nie mniej bo przyslona (?) tez sie musi w tym czasie ruszyc zeby ostrosc w innych miejscach ustawic.

Z drugiej strony na mi2 zauwazylem ze zmieniajac ostrosc zmienia sie wielkosc kadru (?) tzn robiac zdjecie makro ma ono mniejszy kat widzenia niz na ustowionej ostrosci gdzies daleko wiec z mi2 nie dalo by sie takiego ubifocusa zrobic bo kazde zdjecie bylo by innej "wielkosci", zapewne w mi4 tez tak jest czyli mozliwe ze to teoria lateta jest prawdziwa ;)

Na przykladzie fotek Acida widac ze zdjecia maja identyczny kat widzenia, jak by zrobil 2 normalne zdjecia z ustawieniem 2 roznych punktow ostrosci to pewnie bylo by tak jak na mi2 

Edited by Ari93

Share this post


Link to post
Share on other sites

Lekka zmiana kąta widzenia podczas zmiany ostrości na bliżej/dalej to normalne zjawisko w każdym obiektywie (prawa fizyki, optyki).

Być może w Mi4 jest to sprytnie kompensowane programowym przekadrowaniem (bardzo prosty algorytm by tu wystarczył – im bliżej ostrość, tym mniej trzeba przyciąć kadr).

 

Myślę, że zagadka czy UbiF robi 1 czy więcej zdjęć nie będzie ostatecznie rozwiązana, dopóki ktoś z MI4 nie zrobi zdjęcia, w którym będzie jakiś przemieszczający się w poprzek kadru obiekt – ale to musi być w dobrym świetle, aby nie był rozmazany, a tylko przemieszczony. Np. coś jak wahadełko na długim sznurku. z tym za dobrym światłem to może niekoniecznie, bo np. w przypadku HDR tylko przy nieco słabszym widać po ruchomych obiektach, że było kilka zdjęć zrobionych. Przy b. silnym skutecznie działa algorytm 'usuwania duchów'.

 

Oto przykład – zrobiłem prowizoryczne wahadło z zabawki dla kota. Sorry za brak ostrości, ale to tutaj bez znaczenia. Widać wyraźnie, że tryb HDR zrobił 3 zdjęcia, ale na zdjęciu w pełnym słońcu tego nie widać (widać tylko 1 wahadełko i jego 1 cień na ścianie), ponieważ algorytm z łatwością usunął zduplikowany obiekt (był on ostry, więc było to łatwe, w pomieszczeniu rozmazany, więc sobie nie poradził, choć widać, że próbował). Albo zrobił wszystkie 3 zdjęcia tak szybko, że wahadło nie zdążyło się zauważalnie przesunąć. Przy czasach naświetlania rzędu 1/4300 sek. to chyba całkiem możliwe...

wahadlo.jpg

Edited by latet

Share this post


Link to post
Share on other sites

To jest ciekawe, wygląda na to, że robi kilka zdjęć, wystarczy zrobić zdjęcie na którym w kadrze znajdzie się włączony telewizor i później podczas zmiany ostrości widać jak zmienia się też obraz na telewizorze tylko gdzie te zdjęcia są na urządzeniu to pojęcia nie mam :) Podobny efekt ale na 100% na jednym zdjęciu jest dostępny na Lumiach i aplikacji Nokia Refocus. Tam jest zapisywane jedno zdjęcie oraz malutki plik z dodatkowymi danymi dzięki którym aplikacja potrafi wyostrzać/rozmywać różne partie obrazu.

Share this post


Link to post
Share on other sites

Creep, ale Ty zrobiłeś te zdjęcia (z telewizorem w tle), czy tylko gdybasz? Bo jak na razie – wciąż czekam na dowody w postaci zdjęć.

Ogólnie pomysł mi się podoba – łatwiej włączyć telwizor niż wykombinowac jakiś przedmiot w rodzaju wahadełka. Tyle, że coś się musi dziać na ekranie dynamicznie :)

Share this post


Link to post
Share on other sites

Creep ma rację. Tak właśnie się dzieje. Przez przypadek zrobiłem fotkę z TV w tle i przy zmianie punktu ostrości widać zmiany w TV, tak jakby klatka filmu inna :)

Share this post


Link to post
Share on other sites

O, to wreszcie jakiś przełom w śledztwie :) Czy mozesz wkleić lub podlinkować tu te zdjęcia dowodowe? :)

 

Ale to bardzo dobra wiadomość, bo oznacza to, że Ubifocus jest "prawdziwszy" niż czysto programowe rozmywanie fragmentów obrazu...

Z drugiej jednak strony – wymaga lepszych warunków oświetleniowych, aby zastosować krótsze czasy, a pewnie też w tym celu zwiększa ISO, więc nie zawsze musi to wyjść na dobre. Nokia nie bez powodu zdecydowała się jednak robić to na bazie 1 zdjęcia.

Edited by latet

Share this post


Link to post
Share on other sites
Guest
This topic is now closed to further replies.