-
31. Data: 2010-10-14 08:01:59
Temat: Re: Ustawianie ostrosci PO zrobieniu zdjecia ?
Od: "Mariusz Chwalba" <m...@c...net>
On Thu, 14 Oct 2010 08:58:10 +0200, Sergiusz Rozanski
<w...@s...com> wrote:
[...]
>> Po pierwsze, światła nie trzeba przepuszczać - tylko zdemozaikować
>> odpowiednio
>> po rejestracji. W końcu RGB zwykle też rejestrują sąsiednie piksele.
>> Większy
>> kłopot z tym, że kolejne warstwy zarejestrują też bokeh z pozostałych -
>> ale
>> masz przecież też dane z jakiego obrazu to powstaje i możesz skorygować
>> to
>> programowo. Co przypuszczam właśnie prezentowany soft robi.
>
> Ten bokeh to problem bo skutecznie zakłuci to co tam miało być, bo
> rejestrujesz
> rozproszoną wiązkę. Fakt na innych klatkach są detale z tego więc da się
> to wykluczyć - w miarę.
>
>> Co do rozwiązania sprzętowego, to po przespaniu się nad problemem mam
>> rozwiązanie:
>>
>> Optyczne "zbliżenie" części pikseli na matrycy do obiektywu można
>> uzyskać
>> kładąc
>> na nich po prostu odpowiednio grube szkło; różnica prędkości w ośrodkach
>> ugnie
>> promienie i część światła skupi się na matrycy, nie przed nią. Teraz
>> tylko
>> trzeba
>> by jakoś rozwiązać to tak, żeby na sąsiadujących pikselach było szkło o
>> różnej
>> grubości.
>
> To da niestety stały interwał warstw, co przy różnych ogniskowych będzie
> różnie łapać. W skrajności może być że tylko 1 warstwa da sensowny obraz
> min-nieskończoności a reszta poza zakresem.
Po prostu dostaniesz wynik jak z focus bracketingu, tylko jednym zdjęciem.
Tak, przy pewnych parametrach może się okazać, że płaszczyzny ostrości
nie pokrywają się. Ale to już tylko kwestia dostosowania odpowiedniego
obiektywu.
>> Na przykład przez taką macierz mikrosoczewek, płaskich z jednej strony i
>> przylegających do matrycy.
>
> To komplikuje bardziej niż pomysł adobe, więcej pixli płaskich i ich
> mozaika.
Odniosłem wrażenie, że oni właśnie taką macierz mikrosoczewek stosują.
[...]
>> Tylko czy przypadkiem nie wymyślamy właśnie focus bracketingu/stackingu?
>> :-)
>
> Właściwie to już mogę sobie włączyć ujęcie filmowe i lecieć pierścieniem
> :)
A rozdzielczość jakąś sensowną będziesz miał? Bo złożyć jest prosto, jest
gotowy soft do tego.
pozdrawiam,
--
Mariusz 'koder' Chwalba
-
32. Data: 2010-10-14 09:44:04
Temat: Re: Ustawianie ostrosci PO zrobieniu zdjecia ?
Od: Sergiusz Rozanski <w...@s...com>
Dnia 14.10.2010 Mariusz Chwalba <m...@c...net> napisał/a:
>>
>> Właściwie to już mogę sobie włączyć ujęcie filmowe i lecieć pierścieniem
>> :)
>
> A rozdzielczość jakąś sensowną będziesz miał? Bo złożyć jest prosto, jest
> gotowy soft do tego.
"Tylko" fullhd z 5d2 ;)
--
"A cóż to za sens kupować samochód, żeby jeździć po asfalcie?
Tam, gdzie jest asfalt, nie ma nic ciekawego, a gdzie jest
coś ciekawego, tam nie ma asfaltu".
Strugaccy - Poniedziałek zaczyna się w sobotę.
-
33. Data: 2010-10-14 10:24:29
Temat: Re: Ustawianie ostrosci PO zrobieniu zdjecia ?
Od: "Mariusz Chwalba" <m...@c...net>
On Thu, 14 Oct 2010 11:44:04 +0200, Sergiusz Rozanski
<w...@s...com> wrote:
> Dnia 14.10.2010 Mariusz Chwalba <m...@c...net> napisał/a:
>>>
>>> Właściwie to już mogę sobie włączyć ujęcie filmowe i lecieć
>>> pierścieniem
>>> :)
>>
>> A rozdzielczość jakąś sensowną będziesz miał? Bo złożyć jest prosto,
>> jest
>> gotowy soft do tego.
>
> "Tylko" fullhd z 5d2 ;)
Piątka zacny sprzęt, jednak nie sądziłem, że dysponuje większą
rozdzielczością
w fullhd niż zwyczajowe dwa megapixle :P
pozdrawiam,
--
Mariusz 'koder' Chwalba
-
34. Data: 2010-10-14 20:21:58
Temat: Re: Ustawianie ostrosci PO zrobieniu zdjecia ?
Od: Dariusz Zygmunt <d...@c...homelinux.net>
W czwartek, 14 października 2010 07:46, Mariusz Chwalba wyraził następujacą
opinię:
> Co do rozwiązania sprzętowego, to po przespaniu się nad problemem mam
> rozwiązanie:
> Optyczne "zbliżenie" części pikseli na matrycy do obiektywu można uzyskać
> kładąc na nich po prostu odpowiednio grube szkło; różnica prędkości w
> ośrodkach ugnie promienie i część światła skupi się na matrycy, nie przed
> nią. Teraz tylko trzeba by jakoś rozwiązać to tak, żeby na sąsiadujących
> pikselach było szkło o różnej grubości.
A może by tak wiązkę światłowodów o różnej długości? Będziesz mógł zrobić
praktycznie dowolną odległość w całym zakresie ostrzenia obiektywu!!
> Na przykład przez taką macierz mikrosoczewek, płaskich z jednej strony i
> przylegających do matrycy.
> Problem będzie z rozdzielczością - nie wiem, czy można sensownie zrobić
> taką konstrukcję w sposób gwarantujący różne - i znane - grubości
> materiału nad konkretnymi pikselami. ...
Zastanów się - pojedynczy piksel rejestruje poziom światła a nie "ostrość",
skąd taki piksel "ma wiedzieć" że świeci na niego ostry obraz a nie rozmyty?
>>> Albo rozdzielać światło w pryzmacie, i kierować na kilka matryc, w
>>> różnych odległościach.
>>> Albo może wydłużyć część drogi światła przez mikropryzmaty zadrukowane
>>> lustrami.
>>> Albo nie zadrukowane, przez odpowiednie ukształtowanie i całkowite
>>> wewnętrzne odbicie.
>> No można jeszcze puścić matryce w ruch wzdłuż osi optycznej i rejestrować
>> każdym pixlem strumień z przelotu. Jakby przelot trwał np 1/20 sek,
>> to można by zebrać jego kawałek np 1/50 1/100 1/250 i mieć dodatkowo
>> ekspozycje w kompie lepszą niż z obecnego raw :) No i odpowiedni środek
>> przelotu dałby inną ostrość. Aż mi się podoba :D
> Równie dobrze można ruszyć soczewką, w obiektywie już nawet odpowiednie
> silniczki są, hm? No i przy tym 1/20 zarejestrować np. 6*1/120 i złożyć
> potem cyfrowo - łatwiej pozbędziemy się artefaktów.
Jasne, tak w ogóle to nie rozumiem po jakiego groma w ogóle stosuje się
jeszcze czasy dłuższe niż jedna milionowa? Przecież czym krótszy czas tym
łatwiej pozbyć się artefaktów!
> Tylko czy przypadkiem nie wymyślamy właśnie focus bracketingu/stackingu?
> :-)
Wymyślasz fotograficzny odpowiednik perpetuum mobile i to sam, bo odnoszę
wrażenie że Sergiusz kpi sobie z Ciebie i twoich pomysłów.
Z pozdrowieniami
Dariusz Zygmunt
-
35. Data: 2010-10-15 05:47:09
Temat: Re: Ustawianie ostrosci PO zrobieniu zdjecia ?
Od: "Mariusz Chwalba" <m...@c...net>
On Thu, 14 Oct 2010 22:21:58 +0200, Dariusz Zygmunt
<d...@c...homelinux.net> wrote:
>> Co do rozwiązania sprzętowego, to po przespaniu się nad problemem mam
>> rozwiązanie:
>> Optyczne "zbliżenie" części pikseli na matrycy do obiektywu można
>> uzyskać
>> kładąc na nich po prostu odpowiednio grube szkło; różnica prędkości w
>> ośrodkach ugnie promienie i część światła skupi się na matrycy, nie
>> przed
>> nią. Teraz tylko trzeba by jakoś rozwiązać to tak, żeby na sąsiadujących
>> pikselach było szkło o różnej grubości.
> A może by tak wiązkę światłowodów o różnej długości? Będziesz mógł zrobić
> praktycznie dowolną odległość w całym zakresie ostrzenia obiektywu!!
Myślę, że taka konstrukcja może być bardziej kłopotliwa.
>> Na przykład przez taką macierz mikrosoczewek, płaskich z jednej strony i
>> przylegających do matrycy.
>> Problem będzie z rozdzielczością - nie wiem, czy można sensownie zrobić
>> taką konstrukcję w sposób gwarantujący różne - i znane - grubości
>> materiału nad konkretnymi pikselami. ...
> Zastanów się - pojedynczy piksel rejestruje poziom światła a nie
> "ostrość",
> skąd taki piksel "ma wiedzieć" że świeci na niego ostry obraz a nie
> rozmyty?
A po co ma wiedzieć? Wystarczy, że DSP wie jaką dany piksel ma pozycję.
Efektywnie rejestruje przecież po prostu kilka/naście/dziesiąt obrazów
wyostrzonych w różnych punktach. Składać potem można w postprocesingu.
[...]
>> Równie dobrze można ruszyć soczewką, w obiektywie już nawet odpowiednie
>> silniczki są, hm? No i przy tym 1/20 zarejestrować np. 6*1/120 i złożyć
>> potem cyfrowo - łatwiej pozbędziemy się artefaktów.
> Jasne, tak w ogóle to nie rozumiem po jakiego groma w ogóle stosuje się
> jeszcze czasy dłuższe niż jedna milionowa? Przecież czym krótszy czas tym
> łatwiej pozbyć się artefaktów!
Pewnie jakieś zwykłe problemy technologiczne z przesłaniem 16Tbps danych
między matrycą a DSP. I obróbki 2TB rawa w rozsądnym czasie.
>> Tylko czy przypadkiem nie wymyślamy właśnie focus bracketingu/stackingu?
>> :-)
> Wymyślasz fotograficzny odpowiednik perpetuum mobile i to sam, bo odnoszę
> wrażenie że Sergiusz kpi sobie z Ciebie i twoich pomysłów.
Ja za to odnoszę wrażenie, że stoisz na stanowisku "nie mam pojęcia jak to
działa, więc uznam to za fizycznie niemożliwe". Dobrze, że goście ze
Stanforda o tym nie wiedzą :>
http://en.wikipedia.org/wiki/Plenoptic_camera
http://graphics.stanford.edu/papers/fourierphoto/fou
rierphoto-600dpi.pdf
pozdrawiam,
--
Mariusz 'koder' Chwalba
-
36. Data: 2010-10-16 01:41:52
Temat: Re: Ustawianie ostrosci PO zrobieniu zdjecia ?
Od: Dariusz Zygmunt <d...@c...homelinux.net>
W piątek, 15 października 2010 07:47, Mariusz Chwalba wyraził następujacą
opinię:
> On Thu, 14 Oct 2010 22:21:58 +0200, Dariusz Zygmunt
>> Zastanów się - pojedynczy piksel rejestruje poziom światła a nie
>> "ostrość", skąd taki piksel "ma wiedzieć" że świeci na niego ostry obraz
>> a nie rozmyty?
> A po co ma wiedzieć? Wystarczy, że DSP wie jaką dany piksel ma pozycję.
> Efektywnie rejestruje przecież po prostu kilka/naście/dziesiąt obrazów
> wyostrzonych w różnych punktach. Składać potem można w postprocesingu.
Czy Ty rozumiesz w ogóle jak działa soczewka skupiająca i na czym polega
ostrzenie w przypadku obiektywów złożonych z soczewek??
Bez informacji jak daleko od aparatu jest _każdy_ element rejestrowanego
obrazu DSP nie będzie "wiedzieć" który z pikseli rejestruje "ostry" obraz
przedmiotu a który "nieostry".
>> Wymyślasz fotograficzny odpowiednik perpetuum mobile i to sam, bo odnoszę
>> wrażenie że Sergiusz kpi sobie z Ciebie i twoich pomysłów.
> Ja za to odnoszę wrażenie, że stoisz na stanowisku "nie mam pojęcia jak to
> działa, więc uznam to za fizycznie niemożliwe". Dobrze, że goście ze
> Stanforda o tym nie wiedzą :>
>
> http://en.wikipedia.org/wiki/Plenoptic_camera
> http://graphics.stanford.edu/papers/fourierphoto/fou
rierphoto-600dpi.pdf
Ale jesteś pewien że sam rozumiesz teksty które zacytowałeś i wiesz na czym
polega opisana metoda? :-)
Z pozdrowieniami
Dariusz Zygmunt
-
37. Data: 2010-10-16 06:07:35
Temat: Re: Ustawianie ostrosci PO zrobieniu zdjecia ?
Od: "Mariusz Chwalba" <m...@c...net>
Dnia 16-10-2010 o 03:41:52 Dariusz Zygmunt
<d...@c...homelinux.net> napisał(a):
>>> Zastanów się - pojedynczy piksel rejestruje poziom światła a nie
>>> "ostrość", skąd taki piksel "ma wiedzieć" że świeci na niego ostry
>>> obraz
>>> a nie rozmyty?
>> A po co ma wiedzieć? Wystarczy, że DSP wie jaką dany piksel ma pozycję.
>> Efektywnie rejestruje przecież po prostu kilka/naście/dziesiąt obrazów
>> wyostrzonych w różnych punktach. Składać potem można w postprocesingu.
> Czy Ty rozumiesz w ogóle jak działa soczewka skupiająca i na czym polega
> ostrzenie w przypadku obiektywów złożonych z soczewek??
Oczywiście.
> Bez informacji jak daleko od aparatu jest _każdy_ element rejestrowanego
> obrazu DSP nie będzie "wiedzieć" który z pikseli rejestruje "ostry" obraz
> przedmiotu a który "nieostry".
Detekcję kontrastu już popsuli? To działa w drugą stronę - na podstawie
detekcji kontrastu DSP może rekonstruować mapę odległości. To jedno z
zastosowań, explicite podawane w źródłach:
"Using such images the displacement of image parts that are not in focus
can be analyzed and depth information can be extracted."
Zrobienie z tego focus stackingu jest już trywialne, zresztą również
podane w explicite tychże źródłach:
"The same camera system can be used to enable the possibility to refocus
an image virtually on a computer after the picture has been taken"
Kłopot polegał jedynie na opracowaniu algorytmu wyciągającego z tego obrazu
większą rozdzielczość; polegał, gdyż wyniki tego właśnie algorytmu były
przedmiotem prezentacji inicjującej bieżący wątek.
>>> Wymyślasz fotograficzny odpowiednik perpetuum mobile i to sam, bo
>>> odnoszę
>>> wrażenie że Sergiusz kpi sobie z Ciebie i twoich pomysłów.
>> Ja za to odnoszę wrażenie, że stoisz na stanowisku "nie mam pojęcia jak
>> to
>> działa, więc uznam to za fizycznie niemożliwe". Dobrze, że goście ze
>> Stanforda o tym nie wiedzą :>
>>
>> http://en.wikipedia.org/wiki/Plenoptic_camera
>> http://graphics.stanford.edu/papers/fourierphoto/fou
rierphoto-600dpi.pdf
> Ale jesteś pewien że sam rozumiesz teksty które zacytowałeś i wiesz na
> czym polega opisana metoda? :-)
Jasne. Ale dla dalszej dyskusji zadaj sobie jednak trud ich przeczytania,
przynajmniej pierwszego.
pozdrawiam,
--
Mariusz 'koder' Chwalba
-
38. Data: 2010-10-16 19:24:44
Temat: Re: Ustawianie ostrosci PO zrobieniu zdjecia ?
Od: Dariusz Zygmunt <d...@c...homelinux.net>
W sobota, 16 października 2010 08:07, Mariusz Chwalba wyraził następujacą
opinię:
> Dnia 16-10-2010 o 03:41:52 Dariusz Zygmunt
>>>> Zastanów się - pojedynczy piksel rejestruje poziom światła a nie
>>>> "ostrość", skąd taki piksel "ma wiedzieć" że świeci na niego ostry
>>>> obraz a nie rozmyty?
>>> A po co ma wiedzieć? Wystarczy, że DSP wie jaką dany piksel ma pozycję.
>>> Efektywnie rejestruje przecież po prostu kilka/naście/dziesiąt obrazów
>>> wyostrzonych w różnych punktach. Składać potem można w postprocesingu.
>> Czy Ty rozumiesz w ogóle jak działa soczewka skupiająca i na czym polega
>> ostrzenie w przypadku obiektywów złożonych z soczewek??
> Oczywiście.
Aha, więc dlatego z takim przekonaniem piszesz głupoty ;-)
>> Bez informacji jak daleko od aparatu jest _każdy_ element rejestrowanego
>> obrazu DSP nie będzie "wiedzieć" który z pikseli rejestruje "ostry" obraz
>> przedmiotu a który "nieostry".
> Detekcję kontrastu już popsuli? To działa w drugą stronę - na podstawie
Detekcję kontrastu dla każdego piksela z osobna? Obawiam się, że jeszcze
nikt tego nie wymyślił :-)
> detekcji kontrastu DSP może rekonstruować mapę odległości. To jedno z
> zastosowań, explicite podawane w źródłach:
>
> "Using such images the displacement of image parts that are not in
> focus can be analyzed and depth information can be extracted."
>
> Zrobienie z tego focus stackingu jest już trywialne, zresztą również
> podane w explicite tychże źródłach:
>
> "The same camera system can be used to enable the possibility to
> refocus an image virtually on a computer after the picture has been
> taken"
>
> Kłopot polegał jedynie na opracowaniu algorytmu wyciągającego z tego
> obrazu większą rozdzielczość; polegał, gdyż wyniki tego właśnie algorytmu
> były przedmiotem prezentacji inicjującej bieżący wątek.
Rzucasz cytatami bez próby zrozumienia jak działa technologia na którą się
powołujesz.
>>> http://en.wikipedia.org/wiki/Plenoptic_camera
>>> http://graphics.stanford.edu/papers/fourierphoto/fou
rierphoto-600dpi.pdf
>> Ale jesteś pewien że sam rozumiesz teksty które zacytowałeś i wiesz na
>> czym polega opisana metoda? :-)
> Jasne. Ale dla dalszej dyskusji zadaj sobie jednak trud ich przeczytania,
> przynajmniej pierwszego.
Oprócz przeczytania zadaj sobie trud zrozumienia a potem wróć do dyskusji.
Z pozdrowieniami
Dariusz Zygmunt
-
39. Data: 2010-10-17 09:00:03
Temat: Re: Ustawianie ostrosci PO zrobieniu zdjecia ?
Od: "Mariusz Chwalba" <m...@c...net>
Dnia 16-10-2010 o 21:24:44 Dariusz Zygmunt
<d...@c...homelinux.net> napisał(a):
[...]
>>> Bez informacji jak daleko od aparatu jest _każdy_ element
>>> rejestrowanego
>>> obrazu DSP nie będzie "wiedzieć" który z pikseli rejestruje "ostry"
>>> obraz
>>> przedmiotu a który "nieostry".
>> Detekcję kontrastu już popsuli? To działa w drugą stronę - na podstawie
> Detekcję kontrastu dla każdego piksela z osobna? Obawiam się, że jeszcze
> nikt tego nie wymyślił :-)
Przeszliśmy na dyskusję o jednopikselowej matrycy, czy też nie orientujesz
się jak ta detekcja kontrastu działa?
>> detekcji kontrastu DSP może rekonstruować mapę odległości. To jedno z
>> zastosowań, explicite podawane w źródłach:
>>
>> "Using such images the displacement of image parts that are not in
>> focus can be analyzed and depth information can be extracted."
>>
>> Zrobienie z tego focus stackingu jest już trywialne, zresztą również
>> podane w explicite tychże źródłach:
>>
>> "The same camera system can be used to enable the possibility to
>> refocus an image virtually on a computer after the picture has been
>> taken"
>>
>> Kłopot polegał jedynie na opracowaniu algorytmu wyciągającego z tego
>> obrazu większą rozdzielczość; polegał, gdyż wyniki tego właśnie
>> algorytmu
>> były przedmiotem prezentacji inicjującej bieżący wątek.
> Rzucasz cytatami bez próby zrozumienia jak działa technologia na którą
> się powołujesz.
A Ty dla odmiany zaprzeczasz istnieniu technologii - pomiomo istniejących
publikacji i prezentacji - na podstawie, bo ja wiem? Nie przystawania
wyników
do szkolnego modelu optyki?
Wybacz, ale ze stanowiskiem "widzę że działa, ale będę uparcie twierdzić,
że
nie działa" to mi się nie chce dyskutować.
pozdrawiam,
--
Mariusz 'koder' Chwalba