-
51. Data: 2019-03-30 18:38:13
Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
Od: "J.F." <j...@p...onet.pl>
Dnia Sat, 30 Mar 2019 16:59:28 +0100, Marek S napisał(a):
> W dniu 2019-03-30 o 16:39, J.F. pisze:
>> Moze chmury byly slabe :-)
>
> Właśnie sprawdziłem w instrukcji: matryca faktycznie nie była
> kompatybilna z tą konkretną chmurą, która akurat wtedy wisiała tam :-D
Chmury rozne sa - jasne, ciemne :-)
>>> Zapodałem konkretną: okno,
>>> pochmurna pogoda, patrzę przez to okno i nie zmieniając kąta patrzenia
>>> widzę, co jest pod parapetem. Robię zdjęcie tego samego - i nie widzę,
>>> co jest pod parapetem. Mocno wyciągam cienie i sporym stopniu, ale
>>> odstającym od rzeczywistości, zaczynam wydobywać to, co oczami widzę.
>>> Przy poprzednim sprzęcie - Sony A77, nie było takiej opcji, tragedia w
>>> cieniach. W obecnym A99 jest dużo lepiej, ale daleko od tego, co widzę
>>> mimo obróbki w ACR.
>>
>> A daj jakiegos raw ...
>
> Proszę bardzo.
> https://drive.google.com/file/d/1L0JQ7pQFCZzaWOFKw75
l1KgWeGQi4R3r/view?usp=sharing
>
> Stałem przy tym oknie. Jego ramę widziałem zupełnie jasno gdy wzrok
> skupiałem na tym, co za oknem. A w ARW tymczasem rama jest głęboko w
> czerniach, w mocno nieliniowym obszarze matrycy. Tradycyjne, suwaczkowe
> podejście coś tam wyciągnie z czerni, ale będzie to marnej jakości
> reprodukcja.
Wzialem Imaging Edge ... calkiem niezle rozjasnia, choc ma limit tylko
2EV. Widac folie na framugach, deski na podlodze/parapecie, piasek ?
Aczkolwiek zaszumienie jest.
Ale ... obrazek 24Mpix, a plik niecale 25MB.
Dali jakas lekka kompresje, czy to jest tylko 8-bit ?
J.
-
52. Data: 2019-03-31 00:45:05
Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
Od: Krzysztof Halasa <k...@p...waw.pl>
Marek S <p...@s...com> writes:
> W/g moich obserwacji, oko ludzkie to taka "matryca", której piksel
> wysycony ma potencjał np. 100V a czarny 0V. To dzielimy na ileś tam
> poziomów kwantyzacji.
Przede wszystkim, oko jest bardzo niejednorodne. Choćby plamka żółta.
Także rozdzielczość w różnych miejscach jest bardzo różna.
> Wnioskuję, że nawet najlepsze matryce ogarniają niewielki procent
> dynamiki światła w porównaniu z okiem.
Nie jestem pewien.
Podejrzewam, że zasadniczą rolę w tym doskonałym działaniu oka pełni
mózg.
>> Widocznie to nie była biel.
>
> Właśnie - był to nieliniowy fragment matrycy! I o tym właśnie piszę.
No można napisać, że w punkcie nasycenia matryca jest nieliniowa - nawet
bardzo nieliniowa. Ale poniżej tego punktu (punktów dla różnych kolorów)
jest jednak zupełnie liniowa.
> Argumentowałem tym koledze JF, że matryce nie są liniowe, jak
> twierdził. Są bardzo nieliniowe. W związku z tym zupełnie inaczej
> należy przetwarzać światła, tony średnie i cienie by coś wydobyć.
To jest prawda, ale nie dlatego, że matryce są nieliniowe, tylko
dlatego, że oko jest nieliniowe, a także dlatego, że typowe pliki
z grafiką (filmami itp) są (mają być) nieliniowe.
Typowy monitor jest w stanie wyświetlić 8-bitową głębię koloru
(pomijając 6-bitowe TNy, ew. z FRC). Jeśli będziesz miał monitor, który
naprawdę będzie w stanie wyświetlić 14-bitowe kolory (liniowe), to
będziesz mógł tak samo przetwarzać wszystkie tony. Chwilowo jednak
trzeba oszukiwać.
> Nie do końca. Zrobiłem mały research. W tych poszarpanych miejscach da
> się odzyskać część informacji, ale będzie to kolorowa mozaika. W tym
> przypadku niebieskawa - a to dlatego, że dziewczyna ma brązowe włosy,
> więc kanał R się wysycił.
Ale R to nie biały. Nie żeby to wiele zmieniało.
> Mimo iż początkowo dało mi do myślenia, ale po powyższym eksperymencie
> uznałem, że nawet jeśli coś tam dało się wyciągnąć, to nie należy iść
> tą drogą.
Właśnie.
> Czy dostrzegasz różnicę w jakości obu pikseli? Oba dają tylko 4 bity
> więc w/g broszurki marketingowej są tak samo dobre. Tymczasem różnica
> okiem grafika jest kolosalna.
Jasne jest że większe piksele mają większą pojemność, to chyba nikogo
nie zaskakuje. Tyle że główne problemy z matrycami to nie jest ich
przepalenie (od tego są ciemne obiektywy i ew. szybkie migawki),
a praca z kiepskim oświetleniem. A tu po prostu mamy pewną ilość światła
i wielkość matrycy (zakładając ustaloną potrzebną głębię ostrości,
rozdzielczość oraz czas ekspozycji) wiele tu nie zmienia (musimy jedynie
mieć obiektyw odpowiedni dla danej matrycy). Podobno małe obiektywy są
w takich warunkach nawet gorsze, ze względu na większe szumy.
Obecne matryce (w porównaniu do takich 10-letnich i starszych) trochę tu
poprawiają. W tym także BSI. Ale nie spodziewałbym się tu cudów.
Zastosowanie odpowiednich algorytmów może tu wiele poprawić (chociaż nie
będzie to już zwykłe zdjęcie). Tak samo jak w przypadku oka i mózgu.
>>> Nie zgodzę się. Duża matryca 50Mpx może być znacznie gorsza od
>>> mniejszej, ale 8Mpx.
>>
>> Ale tak w praktyce, znasz taką parę matryc, które by spełniały te
>> warunki?
>> No nie wiem, jakaś APS-C 8MPix?
>
> Ok, a teraz przeciwstawmy teorię. Skoro jest odwrotnie - jak
> twierdzisz
Niczego takiego nie twierdziłem, oczywiście.
> - czy można zatem powiedzieć, że im mniejszy piksel, tym
> lepsza matryca? W końcu 50Mpx na FF jest lepsze od np. 20Mpx ponoć :-)
Jasne że może być, jeśli np. robisz zdjęcia małych detali i matryca
20MPix jest w ogóle nieprzydatna (albo musisz składać zdjęcia
z fragmentów).
Zwykle jest tak, że liczba potrzebnych pikseli jest z góry ustalona.
Jeśli chcesz produkować strumień video 1080p, to zarówno matryca 50
Mpix, jak i 20 Mpix nie będzie mieć sensu (chyba że z digital zoomem,
ale wtedy to ona nie będzie używać tylu pikseli).
> A'propos - porównałem RAW z Sony A99 z Sony A99 II. Matryca w tym
> 2-gim ma 2x mniejsze piksele. Po wyrównaniu rozdzielczości, jakość
> obrazu ta sama w cieniach. Bez wyrównania - gorsza w Sony A99 II.
A co to znaczy "bez wyrównania"?
Oglądając piksele 1:1?
Chyba nie spodziewałeś się niczego innego?
> Chodziło mi o to, że skoro mały piksel będzie swoim szumem zacierał
> detale w cieniu do nierozpoznawalnego poziomu, to nawet obiektyw za 20
> koła tego nie poprawi.
Ależ poprawi, bardzo łatwo. Mały piksel = małe szumy. Problem nie jest
w dużych szumach, tylko w małej ilości światła.
Tylko czy taki obiektyw da się w ogóle kupić?
Żeby było jasne: problem jest w małej ilości światła wpadającego do
obiektywu. Nie jest takie ważne, na jak dużej powierzchni skupimy to
światło (aczkolwiek oczywiście potrzebna nam rozdzielczość jest istotna).
Małe piksele mają swoje problemy, owszem: współczynnik wykorzystania
powierzchni jest w nich mniejszy (zwłaszcza bez BSI). To jednak chyba
kwestia technologiczna, do pokonania.
Małe matryce mają problem z obiektywami: te ostatnie muszą być naprawdę
dobrej jakości, żeby uzyskać rozdzielczość, ostrość itd. podobną do tych
dla większych matryc. W pewnym momencie takich obiektywów po prostu nie
ma.
--
Krzysztof Hałasa
-
53. Data: 2019-03-31 01:03:15
Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
Od: Krzysztof Halasa <k...@p...waw.pl>
"J.F." <j...@p...onet.pl> writes:
> Ale ... obrazek 24Mpix, a plik niecale 25MB.
> Dali jakas lekka kompresje, czy to jest tylko 8-bit ?
Aaa, to dlatego ta tzw. "matryca" jest nieliniowa :-)
Trzeba przełączyć na "uncompressed raw", tyle że to będzie 2x dłużej
trwało i 2x więcej miejsca będzie zajmowało.
--
Krzysztof Hałasa
-
54. Data: 2019-03-31 16:30:08
Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
Od: Marek S <p...@s...com>
W dniu 2019-03-31 o 00:45, Krzysztof Halasa pisze:
>
> No można napisać, że w punkcie nasycenia matryca jest nieliniowa - nawet
> bardzo nieliniowa. Ale poniżej tego punktu (punktów dla różnych kolorów)
> jest jednak zupełnie liniowa.
Zrób eksperyment: do samo ujęcie, to samo oświetlenie. Zrób kilka fot
czegoś niezbyt kontrastowego, ale też nie płaskiego w sensie dynamiki,
tak aby różniły się o 2ev (regulując czasem wyłącznie). Potem wyrównaj
ich ev w ACR. Przenieś do Photoshopa, policz różnice między sąsiednimi
ujęciami, wzmocnij te różnice ostrą krzywą.
Można bardzo się zdziwić. Niektóre obszary będą świecić różnicami jak
latarnia. Zwróć też uwagę iż w światłach różnice będą znacznie mniejsze
niż w cieniach. Daje to efekt taki jakby matryca dużo szybciej się
wysycała niż "niedosycała". Jeśli miałbym to rysować, to dałbym
charakterystykę w kształcie S o sporym liniowym odcinku, w bielach
bardzo mocno zakrzywioną a w cieniach długą i łagodną krzywą.
> To jest prawda, ale nie dlatego, że matryce są nieliniowe, tylko
> dlatego, że oko jest nieliniowe, a także dlatego, że typowe pliki
> z grafiką (filmami itp) są (mają być) nieliniowe.
50% zgody. Pomiary pokazały mi nieliniowość matrycy mimo wszystko. Po
drugie czym jest przetwarzanie RAW w ACR jak nie nanoszeniem
nieliniowości oka? A moja teza jest taka, że choćbyś na uszach stawał,
to nie dasz rady tak skompresować dynamiki, że będzie choćby w
przybliżeniu podobna do tego, co widzimy. Matryca FF zwyczajnie nie jest
w stanie zarejestrować obrazu o takiej rozpiętości tonalnej. Nie ma więc
czego kompresować.
> Typowy monitor jest w stanie wyświetlić 8-bitową głębię koloru
> (pomijając 6-bitowe TNy, ew. z FRC). Jeśli będziesz miał monitor, który
> naprawdę będzie w stanie wyświetlić 14-bitowe kolory (liniowe), to
> będziesz mógł tak samo przetwarzać wszystkie tony. Chwilowo jednak
> trzeba oszukiwać.
Sądzę, że po wzmocnieniu różnic w PS, nawet na 1 bitowym monitorze
zobaczysz je wyraźnie.
Tu masz przykład:
https://drive.google.com/file/d/1B34oZqwQM7jj3g60dw3
UjCoUxSmQ9rb9/view?usp=sharing
Komentarz.
Zdjęcie wyprałem losowo z kolekcji bo nie mam już pomiarowych i nie chce
mi się ich powtarzać. Ten świecący punkt, to wcale nie żarówka, to
najbardziej zacieniony element.
Na zdjęciu swobodnie kształty rozróżnisz. Nie trzeba do tego super -
monitorów.
> Jasne jest że większe piksele mają większą pojemność, to chyba nikogo
> nie zaskakuje.
Ale kształt charakterystyki zapełniania - już owszem. Jeśli miałbym
narysować "hydrauliczny" model piksela, to nie byłaby to puszka
przypominająca walec, do której wlewamy wodę (fotony). Puszzka byłaby
sporo szersza u podstawy, zwężająca się powiedzmy tak do 20% wysokości,
potem ścianki byłyby równoległe przez długi odcinek, a na samym końcu
ostro zwężone.
Tak więc nalewasz wodę, jej poziom przez dłuższy czas spokojnie,
nieliniowo rośnie (czernie), potem szybkość podnoszenia się słupa wody
jest constans aby w końcowej fazie błyskawicznie zwiększyć swój poziom
(biele - tuż przed nasyceniem).
>> Ok, a teraz przeciwstawmy teorię. Skoro jest odwrotnie - jak
>> twierdzisz
>
> Niczego takiego nie twierdziłem, oczywiście.
Ok, ale rozmawiamy. Jak zwać, tak zwać.
>> - czy można zatem powiedzieć, że im mniejszy piksel, tym
>> lepsza matryca? W końcu 50Mpx na FF jest lepsze od np. 20Mpx ponoć :-)
>
> Jasne że może być, jeśli np. robisz zdjęcia małych detali i matryca
> 20MPix jest w ogóle nieprzydatna (albo musisz składać zdjęcia
> z fragmentów).
Nie o tym mowa. Piszę o dynamice piksela a nie rozdzielczości. Choć i w
tym przypadku mam obiekcje bo jakoś nie potrafię sobie wyobrazić iż w
nieskończoność możemy pomniejszać piksele i uzyskiwać większą precyzję
odwzorowania. Nie chce mi się wierzyć, że choćby mikrozniekształcenia
światła w optyce nie zachodzą, a które powodowałyby niezasadność
pomniejszania pikseli.
>> A'propos - porównałem RAW z Sony A99 z Sony A99 II. Matryca w tym
>> 2-gim ma 2x mniejsze piksele. Po wyrównaniu rozdzielczości, jakość
>> obrazu ta sama w cieniach. Bez wyrównania - gorsza w Sony A99 II.
>
> A co to znaczy "bez wyrównania"?
> Oglądając piksele 1:1?
Zresamplowanie obrazu do tego samego wymiaru: czyli 50Mpx do 20Mpx.
Jakość w cieniach podobna, bez wyrównania - gorsza dla 50Mpx (czyli
patrząc piksel w piksel).
> Chyba nie spodziewałeś się niczego innego?
Oczywiście, że nie.
>> Chodziło mi o to, że skoro mały piksel będzie swoim szumem zacierał
>> detale w cieniu do nierozpoznawalnego poziomu, to nawet obiektyw za 20
>> koła tego nie poprawi.
>
> Ależ poprawi, bardzo łatwo. Mały piksel = małe szumy.
Czyli chcesz powiedzieć, że np. telefon z matrycą z 20MPx wygeneruje
mniej zaszumiony obraz niż FF z 20MPx? Bo mały piksel = mały szum?
Po drugie, chcesz powiedzieć, że obiektyw, powiedzmy jakaś stałka f/2.8
za 2k zł, da dużo większy szum niż inny obiektyw też f/2.8 ale za 20
tys. zł?
> Małe piksele mają swoje problemy, owszem: współczynnik wykorzystania
> powierzchni jest w nich mniejszy (zwłaszcza bez BSI). To jednak chyba
> kwestia technologiczna, do pokonania.
Nie mieszajmy technologii w porównaniach, bo do żadnych wniosków nie
dojdziemy.
--
Pozdrawiam,
Marek
-
55. Data: 2019-03-31 16:44:36
Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
Od: Marek S <p...@s...com>
W dniu 2019-03-30 o 18:38, J.F. pisze:
> Wzialem Imaging Edge ... calkiem niezle rozjasnia, choc ma limit tylko
> 2EV. Widac folie na framugach, deski na podlodze/parapecie, piasek ?
Parapet to surowe cegły - świeżo postawiony dom. Desek nie ma tam
żadnych :-)
> Aczkolwiek zaszumienie jest.
I o tym mowa. Jeśli miałbym zrelacjonować jak ja to okiem widziałem, to
powiedziałbym, że cienie były rozjaśnione o 4ev i bez szumów :-) A więc
jeszcze raz przytaczam moją tezę - współczesne matryce są przynajmniej o
rząd czułości gorsze od naszych oczu.
> Ale ... obrazek 24Mpix, a plik niecale 25MB.
> Dali jakas lekka kompresje, czy to jest tylko 8-bit ?
Ilość bitów jest 14. Sony stosuje kompresję bezstratną w RAW.
--
Pozdrawiam,
Marek
-
56. Data: 2019-03-31 16:46:53
Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
Od: Marek S <p...@s...com>
W dniu 2019-03-31 o 01:03, Krzysztof Halasa pisze:
> "J.F." <j...@p...onet.pl> writes:
>
>> Ale ... obrazek 24Mpix, a plik niecale 25MB.
>> Dali jakas lekka kompresje, czy to jest tylko 8-bit ?
>
> Aaa, to dlatego ta tzw. "matryca" jest nieliniowa :-)
Bo Sony A99 ma kompresję bezstratną w RAW? To ma być uzasadnienie?
Wszystkie RAW są 14-bitowe. W superszybkich seriach (sporadycznie
używam), 12-to bitowe.
> Trzeba przełączyć na "uncompressed raw", tyle że to będzie 2x dłużej
> trwało i 2x więcej miejsca będzie zajmowało.
Nie ma takiej opcji.
--
Pozdrawiam,
Marek
-
57. Data: 2019-03-31 19:30:49
Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
Od: "J.F." <j...@p...onet.pl>
Dnia Sun, 31 Mar 2019 16:44:36 +0200, Marek S napisał(a):
> W dniu 2019-03-30 o 18:38, J.F. pisze:
>> Wzialem Imaging Edge ... calkiem niezle rozjasnia, choc ma limit tylko
>> 2EV. Widac folie na framugach, deski na podlodze/parapecie, piasek ?
>
> Parapet to surowe cegły - świeżo postawiony dom. Desek nie ma tam
> żadnych :-)
No to faktycznie matryca nie wyrabia :-)
http://pl.tinypic.com/view.php?pic=4rot3t&s=9
Mialem wrazenie, ze jakas szeroka szpare miedzy wyjatkowo nierownymi
deskami widze :-)
>> Aczkolwiek zaszumienie jest.
> I o tym mowa. Jeśli miałbym zrelacjonować jak ja to okiem widziałem, to
> powiedziałbym, że cienie były rozjaśnione o 4ev i bez szumów :-) A więc
> jeszcze raz przytaczam moją tezę - współczesne matryce są przynajmniej o
> rząd czułości gorsze od naszych oczu.
No i cos w tym jest, ale jak widac - daje sie sporo rozjasnic te 14
bitow.
J.
-
58. Data: 2019-03-31 21:12:28
Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
Od: Marek S <p...@s...com>
W dniu 2019-03-31 o 19:30, J.F. pisze:
>
> No to faktycznie matryca nie wyrabia :-)
>
> http://pl.tinypic.com/view.php?pic=4rot3t&s=9
Wow! Rany! A co się temu przytrafiło? Soft kiszkowaty, czy operator? :-D :-D
Tak powinno być:
https://drive.google.com/file/d/18KpFCmgm0SU6bWwO8qL
iAoq7EpuY6QQv/view?usp=sharing
To, co ja nazywam nie wyrabianiem się matrycy, to jest właśnie powyższe.
Twój przykład, to jest raczej utylizacja zdjęcia :-D
> Mialem wrazenie, ze jakas szeroka szpare miedzy wyjatkowo nierownymi
> deskami widze :-)
Nie, to pustaki, czy coś takiego. :-D
> No i cos w tym jest, ale jak widac - daje sie sporo rozjasnic te 14
> bitow.
... owszem, choć nie w Twoim wariancie :-) Bardzo dużo można
skompresować (nie mylić z rozjaśnieniem). Jednakże aby było to podobne
do rzeczywistości, to np. pianka pod oknem powinna być całkiem jasna i
nie być zaszumiona. Gdyby matryca wyciągała może z 4ev więcej, to w tym
przypadku dałoby się coś zrobić. A potem należałoby podnieść poprzeczkę
i zrobić to samo zdjęcie przy bezchmurnym niebie (ale nie pod słońce).
Wtedy okaże się, że może w sumie z 8ev by się przydało. Nie wspominając
o sofcie typu PS, który póki co nie jest w stanie dokonywać korekcji w
takim zakresie.
--
Pozdrawiam,
Marek
-
59. Data: 2019-03-31 21:30:40
Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
Od: "J.F." <j...@p...onet.pl>
Dnia Sun, 31 Mar 2019 21:12:28 +0200, Marek S napisał(a):
> W dniu 2019-03-31 o 19:30, J.F. pisze:
>> No to faktycznie matryca nie wyrabia :-)
>> http://pl.tinypic.com/view.php?pic=4rot3t&s=9
>
> Wow! Rany! A co się temu przytrafiło? Soft kiszkowaty, czy operator? :-D :-D
Soft byc moze, operator na pewno - mialem rozjasnic cienie, to
rozjasnilem, reszta mnie nie interesowala
> Tak powinno być:
> https://drive.google.com/file/d/18KpFCmgm0SU6bWwO8qL
iAoq7EpuY6QQv/view?usp=sharing
>
> To, co ja nazywam nie wyrabianiem się matrycy, to jest właśnie powyższe.
A ja tam widze calkiem przyzwoicie tam, gdzie wczesniej "ciemnosc
widze", wiec nie wiem czemu narzekasz, ze nie wyrabia :-)
Po prostu monitor masz do d* :-)
>> Mialem wrazenie, ze jakas szeroka szpare miedzy wyjatkowo nierownymi
>> deskami widze :-)
> Nie, to pustaki, czy coś takiego. :-D
Ale szpara, czy wydaje mi sie i to tylko jakas ciemna plama ?
>> No i cos w tym jest, ale jak widac - daje sie sporo rozjasnic te 14
>> bitow.
> ... owszem, choć nie w Twoim wariancie :-) Bardzo dużo można
> skompresować (nie mylić z rozjaśnieniem).
To co bylo prawie czarne trzeba rozjasnic :-)
> Jednakże aby było to podobne
> do rzeczywistości, to np. pianka pod oknem powinna być całkiem jasna i
> nie być zaszumiona.
Mnie tam nie bylo, to nie wiem jakie bylo wrazenie naoczne.
Ale faktycznie w pokoju widze dobrze i wnetrze i za oknem.
> Gdyby matryca wyciągała może z 4ev więcej, to w tym
> przypadku dałoby się coś zrobić. A potem należałoby podnieść poprzeczkę
> i zrobić to samo zdjęcie przy bezchmurnym niebie (ale nie pod słońce).
> Wtedy okaże się, że może w sumie z 8ev by się przydało. Nie wspominając
> o sofcie typu PS, który póki co nie jest w stanie dokonywać korekcji w
> takim zakresie.
Jesli matryca szumi, to i soft nie poradzi.
Ale jesli nie szumi ....
Tak czy inaczej - troche sie jednak potwierdzila opinia, ze dzieki tej
duzej ilosci bitow matryca ma jednak wiekszy zakres niz sie na
nieobrobionej fotce wydaje :-)
J.
-
60. Data: 2019-03-31 22:24:38
Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
Od: Marek S <p...@s...com>
W dniu 2019-03-31 o 21:30, J.F. pisze:
> A ja tam widze calkiem przyzwoicie tam, gdzie wczesniej "ciemnosc
> widze", wiec nie wiem czemu narzekasz, ze nie wyrabia :-)
Wyznaję wyższe standardy :-)
> Po prostu monitor masz do d* :-)
Akurat monitor do d... znacznie lepiej cienie by prezentował. Czasem
widuję swoje prace na lapkach różnej maści. Zazwyczaj są mocno
rozjaśnione niż monitory graficzne.
> Ale szpara, czy wydaje mi sie i to tylko jakas ciemna plama ?
Szpara między pustakami! Chyba zaświadczenie od księdza będzie potrzebne
:-D :-D Odpuść już tej szparze :-D
>>> No i cos w tym jest, ale jak widac - daje sie sporo rozjasnic te 14
>>> bitow.
>> ... owszem, choć nie w Twoim wariancie :-) Bardzo dużo można
>> skompresować (nie mylić z rozjaśnieniem).
>
> To co bylo prawie czarne trzeba rozjasnic :-)
A to co było jasne - przyciemnić. A to wszystko dokonać za pomocą
niesymetrycznej krzywej typu S, bo rozjaśnianie/przyciemnianie (czyli
brightness), z natury rzeczy liniowe, daje fatalne efekty. Kompresując
taką charakterystyką zbliżamy się do tego, co widzi nasze oko.
Więc czarnego w żadnym przypadku nie wolno rozjaśniać. No chyba, że masz
na myśli utylizację zdjęcia w/g własnego przykładu :-D Całość staje się
do d... i nawet te rozjaśnione cienie są kompletnie nieczytelne bo ...
są rozjaśnione zamiast skompresowane.
>> Jednakże aby było to podobne
>> do rzeczywistości, to np. pianka pod oknem powinna być całkiem jasna i
>> nie być zaszumiona.
>
> Mnie tam nie bylo, to nie wiem jakie bylo wrazenie naoczne.
Zapewniam, że tylko z tego powodu informuję jakie było :-D
> Ale faktycznie w pokoju widze dobrze i wnetrze i za oknem.
Ufff, wreszcie :-D A tyle pisania i demo było trzeba użyć zamiast
otworzyć oczy i popatrzeć :-D
>> Gdyby matryca wyciągała może z 4ev więcej, to w tym
>> przypadku dałoby się coś zrobić. A potem należałoby podnieść poprzeczkę
>> i zrobić to samo zdjęcie przy bezchmurnym niebie (ale nie pod słońce).
>> Wtedy okaże się, że może w sumie z 8ev by się przydało. Nie wspominając
>> o sofcie typu PS, który póki co nie jest w stanie dokonywać korekcji w
>> takim zakresie.
>
> Jesli matryca szumi, to i soft nie poradzi.
> Ale jesli nie szumi ....
Cytujesz moje słowa. Napisałem, że szacuję, że jeszcze z 8ev czułości
może by wystarczyło. Czyli szum powinien być na tyle mniejszy, żeby dać
te domniemane 8ev.
> Tak czy inaczej - troche sie jednak potwierdzila opinia, ze dzieki tej
> duzej ilosci bitow matryca ma jednak wiekszy zakres niz sie na
> nieobrobionej fotce wydaje :-)
Nie! Czy dokładając więcej bitowy przetwornik AC do fototranzystora
czynisz go lepszym elektrycznie???
Zaczynając ten wątek byłem o tym przekonany. Ale jeden z kolegów użył
argumentu, który zbił mnie z tropu i przyznałem mu rację: ilość poziomów
kwantyzacji zwykle skorelowana jest z zakresem dynamiki piksela, ale ta
korelacja niekoniecznie jest prawdziwa. Marketing ma tu pole do popisu.
Jemu ulegasz. Przykładowo: matryca jest kwantyzowana 14-bitowo, ale
szumi na 4-ostatnich bitach. Dało się skwantyzować? Dało!
Druga rzecz, obrazowo: dajmy na to, że istnieją 2 różnej wielkości
piksele. Oba dają odpowiedź 0...1V ale szum mają na poziomie 0.2V.
Nasycamy oba. Mniejszy pomieści 256 fotonów ponad szum aby się nasycić,
a drugi 1024 przy tym samym czasie naświetlania. Niech 1 foton da nam 1
poziom kwantyzacji. W obu stosujemy przetwornik 10-bitowy. W tym
pierwszym przypadku przetwornik AC będzie zawierał puste przebiegi.
Trzecia rzecz: zwróć uwagę, że oba potrzebowały tyle samo czasu by się
nasycić ale dają lepszą rozdzielczość. Jeśli zwiększymy natężenie
padającego światła, to nic się nie zmieni, bo oba są już nasycone. Teraz
zmieniamy technologie większego piksela. Mniej szumi: np. 0.02V. Okazuje
się, że zaczyna "widzieć" więcej detali w cieniach więc możemy:
a) Kwantyzować sygnał tą samą ilością bitów ale zwiększyć zakres
kwantyzowanych napięć do 0.02...1V zamiast 0.2...1V.
b) Dodatkowo dorzucić jeszcze ze dwa bity by uzyskać więcej poziomów
gradacji koloru.
W obu przypadkach ta "pianka" na zdjęciach da się identycznie dużo
lepiej wydobyć z cienia a ilość bitów przetwornika nie wpływa na zakres
dynamiki elementu optoelektrycznego.
--
Pozdrawiam,
Marek