-
21. Data: 2012-10-28 22:11:29
Temat: Re: Mapa 3d
Od: "M.M." <m...@g...com>
W dniu niedziela, 28 października 2012 21:28:51 UTC+1 użytkownik PK napisał:
>
> >> Mając dwa obrazy z różnych ale bliskich punktów wystarczy sprawdzić
> >> przesunięcia fragmentow obrazu (to się genialnie zrównolegla i jest
> >> proste). Te dalej przesuną się mniej.
>
> > Tak też myślałem, nawet zacząłem pisać zabawkową aplikację która to
> > spróbuje zrobić.... może jednak dokończę ten "interfejs" :D
>
> Nie wiem chłopaki co i jak Wy próbujecie osiągnąć, ale jak Ci coś
> wyjdzie, to wrzuć na grupę, bo chciałbym to zobaczyć :].
Potrwa to dłuższą chwilę (wyższy priorytet muszę nadać projektom
komercyjny niż zabawkowym) ale na pewno coś zrobię w tym kierunku i
bez względu na rezultat dam znać :)
Pozdrawiam
-
22. Data: 2012-10-30 10:50:50
Temat: Re: Mapa 3d
Od: Michoo <m...@v...pl>
On 28.10.2012 12:04, M.M. wrote:
> W dniu niedziela, 28 października 2012 09:44:09 UTC+1 użytkownik PK napisał:
>
>> Empirycznie: weź do ręki piłkę i zastanów się, ile musiałbyś zrobić
>> zdjęć, żeby odzyskać położenia wszystkich punktów.
> Tak czy inaczej zwierzęta sobie nieźle radzą. Taki kot nie ma dalmierza
> laserowego ani sonaru, ma tylko dwoje oczu, a można mu pozazdrościć jak w
> gęstwinie omija przeszkody i precyzyjnie skacze na ofiarę.
W praktyce wcale nie tak dobrze jak byś chciał uzyskać na komputerze. Do
orientowania się w przestrzeni wystarcza "rozmyte" widzenie co jest
przeszkodą.
Mapy apple, z których się ostatnio wszyscy mocno naśmiewali miały
generowane budynki w ten sposób ze zdjęć:
http://www.spectrecollie.com/wp-content/uploads/dali
japancenter.jpg
http://dkgadget.com/wp-content/uploads/2012/09/manha
ttan-bridge-is-now-a-rollercoaster-ios-maps.jpg
tak naprawdę do zorientowania się co gdzie jest to wystarczy, ale efekt
jest bardzo "brzydki".
> Zastanawia mnie:
> a) jak trudna jest implementacja takiego algorytmu,
> b) co leży u podstaw tak dużej skuteczności u zwierząt,
> c) jak złożony obliczeniowo jest to problem.
> Co do punktów a i c kompletnie nie mam pojęcia. W przypadku punktu b domniemam,
> że kluczowe jest rozpoznawanie obrazu.
Wbrew pozorom niekoniecznie. Znajomi robili prace magisterskie w tej
okolicy - jeden skaner 3D, drugi robienie brył 3d z rysunku
technicznego. Zapamiętałem dwa algorytmy:
- robi się dużo zdjęć z małym przesunięciem. Liczy punkty przesunięcia
jak w kompresji wideo i traktuje wektory przesunięcia, po uwzględnieniu
perspektywy kamery jako, kolejne wektory powierzchni.
- masz dwie kamery - ten sam obraz jest w nich zabużany perspektywą -
przemieszczenie plamy barwnej pomiędzy obrazami daje z twierdzenia
talesa odległość (znamy kąty). Agreguje się i uśrednia dane budując
przyrostowo środowisko 3d.
Skaner 3d dawał naprawdę niezły efekt wg bardzo uproszczonej wersji
2kamery - jedna kamera, pionowa linia z lasera. odchylenie lewo-prawo
linii od osi (znane kąty) określa odległość - tworzy punkt w
przestrzeni. Chmura punktów gdy jest odpowiednio gęsta daje pojęcie o
"przestrzeni".
--
Pozdrawiam
Michoo