-
231. Data: 2019-04-18 11:45:01
Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
Od: "J.F." <j...@p...onet.pl>
Użytkownik "Marek S" napisał w wiadomości grup
dyskusyjnych:q989sp$4dq$...@n...news.atman.pl...
W dniu 2019-04-17 o 15:15, J.F. pisze:
>>> Photoshop tak ma. Jeśli się komuś nie podoba, to może przestawić
>>> na % krycia pigmentem/tuszem.
>
>> Tak mozna ?
>> Bo to niekoniecznie jest to samo, co jasnosc.
>I masz rację. To odwrotność jasności:
>https://drive.google.com/file/d/1BDAacCfa7vISUxoMnR
AO3hIqg-FixX1T/view?usp=sharing
>Innymi słowy, czarne zamienia się miejscami z białym, czego ja nie
>lubię.
Nawet nie o to mi chodzi, tylko o to, ze konwersja wartosci piksela na
jasnosc ... wydruku, bedzie calkiem inna niz na monitorze.
No ale moze potrafi to odpowiednio skorygowac ... ale skoro jest, to
widac komus bylo to potrzebne :-)
>>> Znów nie wiem o czym mówisz. Chodzi o pierwszy z 3 wykresów jakie
>>> przytoczyłem? Tam losowo wybrałem 63.
>
>> Raczej o te prosta konwersji, ktora pokazywales pare dni wczesniej.
>... i której nigdy do niczego nie użyłem? Już kojarzę.
To bylo nie pokazywac :-)
> Gdzie bylo 0>63, 128->128, 255-> 192 i nazywales rozjasnianiem.
>Tak, bo 0->63 przeszło. Drugi koniec powinien być w górnym, prawym
>rogu. O tym też pisałem. Wtedy jest typowe rozjaśnianie.
Wypłowienie :-P
>>>> A w pliku JPG mamy najciemniejszy 6.
>
>>> Nie nadążam. W JPG mamy 6 najciemniejszy... ale w jakim JPG i jaką
>>> prostą potraktowanym i przez kogo.
>
>> W JPG, w ktorym wyprodukowales "rozjasniony obraz", czy moze
>> "skompresowana dynamike", bo ja tez sie juz gubie to jak nazywasz i
>> dlaczego akurat tak.
>> Tam, gdzie ladnie widac i parapet i okno.
>Tam wybrałem kompresję tonalną. Nie rozjaśniałem żadnego z
>prezentowanych zdjęć, nawet w celach demonstracyjnych. A różnica
>względem rozjaśnienia polega na - jak również wiele razy
>wyjaśniałem - nie ruszaniu żadnego z handlerów.
Kiedys tam napisales, ze te kwadraciki w srodku krzywej to tez
handlery.
>Natomiast Krzywa kompresji staje się dość złożona.
Jesli odpowiada takiej, jak pokazywales na jednym z widokow, to IMO
jest calkiem trywialna.
>>> Nie wiem co robiłeś z tym JPG, że takie wartości otrzymałeś.
>> To nie ja, to Ty.
>Ok, po przeczytaniu powyższego rozumiem. Ok... więc sytuację mamy
>następującą:
>1. Mocno przetworzyłem jakiś RAW i wygenerowałem JPG.
>2. Ty otrzymałeś RAW, przetworzyłeś po swojemu. Otwarcie, to też
>przetworzenie.
>3. Mierzysz jakiś punkt w obrazie jaki otrzymałeś i porównujesz z
>moim zdjęciem.
>4. Otrzymujesz różne wyniki ... i dziwisz się temu?
Nie. Patrze tylko JPG wygenerowany przez Ciebie.
Ty w jednej jego polowie umiesciles swoj obraz z ARW, a po drugiej to
co otwarles z "przetworzonego" przez mnie ARW.
Mowisz, ze oba ARW sa takie same, a na tym JPG ten sam piksel z obu
obrazow jest inny.
>> Kompresja, po ktorej minimalna jasnosc jest 6 a maksymalna pewnie
>> bliska 255 ?
>> (w 8 bit JPG)
>> Dziwna troche ta kompresja :-)
>Owszem, bardzo dziwna: mocno nieliniowa z zachowaniem krańcowych
>wartości.
No wlasnie - skoro koncowe wartosci zachowane, to czy aby na pewno
kompresja.
>>> Wcale nie! To Ty taki wariant korekcji uwielbiasz :-D Ja tylko w
>>> bardzo nielicznych przypadkach postąpiłbym w ten sposób.
>
>> I to jest jest nieliczny przypadek wlasnie ?
>Absolutnie nie!!! Po raz 18ty zaprzeczam: nie użyłem tam żadnej
>prostej konwersji.
Ja tylko o tym, czy to nie jest taki przypadek, gdzie mozna uzyc
takiej konwersji.
I przypominam cel - chcemy zobaczyc co sie kryje w tych ciemnych
partiach.
Reszta mnie w zasadzie nie interesuje.
Owszem - szara breja nam tego nie ulatwi.
>> I czemu taka krzywa nazywac kompresji, a nie ekspansji, skoro jej
>> celem jest "wzmocnienie" (ekspancja) ciemnych obszarow, a kompresja
>> jasnych tylko skutkiem ubocznym.
>
>> A jakby chcial odwrotna krzywa - kompresuje ciemne partie, zeby
>> miec wiekszy kontrast w jasnych partiach, bo tam sa ciekawe detale,
>> niestety malo rozniace sie jasnoscia,
>Tak postępuję ja. Jeśli postąpiłbyś odwrotnie, to musiałbyś
>spłaszczyć dynamikę ciemnych obszarów.
>> to jakby to sie nazywalo ?
>Tak samo: zmniejszasz liczbę tonów w obrazie.
Ja bym rzekl, ze rozpietosc tonalna jednych partii kompresuje, zeby
rozpietosc innych partii rozszerzyc.
Co do ilosci tonow - przy 8-bit cz-b (szarych) obrazkach mialbys
troche racji - oryginal zawieral powiedzmy 256 poziomow szarosci,
po takiej operacji niektore z nich znikna.
Ale kto stoi i liczy ile poziomow szarosci jest obecnych w obrazie ?
Raczej patrzy czy czernie nie są "płowe", a biele szare. A srajnych
punktow jak piszesz - nie ruszasz.
Juz przy kolorowych obrazkach 3*8 bit sprawa sie bardziej komplikuje,
ale jak masz obraz 3*14 bit i ogladasz na monitorze 8 bit, to gdzie tu
jakies zmniejszenie liczby tonow ...
>> Zarzut rozumiem, tylko ze dla demonstracji prawidlowej metody
>> przyslales mi wykres z prosta, ktora 0 zamieniala w 63.
>Po raz 19ty zaprzeczam temu.
Ze wyslales, czy ze nazwales to prawidlowa metoda ?
Bylo od razu pokazac te krzywa, to bys nie musial 19 razy zaprzeczac.
>> Poza tym ja wcale nie dodawalem 128, tylko jak sie okazuje
>> zastosowalem krzywa konwersji bardzo podobna do twojej.
>Przy oknie ta krzywa była zupełnie inna ale zasada podobna. Krzywa,
>której użyłem miała 4 węzły.
A moja 3, choc w co tu mowic o wezlach, skoro to jest krzywa
nieokreslonego rodzaju.
Przy oknie moglo byc istotnie inaczej, bo jak pisalem - tutaj
rozjasnilem te czernie.
>> Moze i swiatlomierz wykrylby 100% roznice jasnosci, ale moje oko
>> nie.
>> Przynajmniej w jasnym otoczeniu nie.
>Pełna zgoda. W końcu 1ev różnicy to dla oka prawie nic.
O, nie tak znowu nic - w ciemni pewnie bym zobaczyl roznice, jakbym
pol ekranu mial w jasnosci 0, a pol w jasnosci 1.
A kto wie, co by pokazal swiatlomierz, jakby tak zmierzyc ... tylko to
juz chyba nie fotograficzny musialby byc.
ale w normalnym otoczeniu, to niestety - gdzies ponizej jasnosci 20 to
juz "czarno widze".
>> Ale ... jesli sie tak chwalisz, ze (nie calkiem) liniowy gradient
>> jest u Ciebie na monitorze doskonale widoczny, i widac 256 paskow
>> ...
>Jak wyjaśniłem - nie analizowałem go uważnie. W wylosowanych
>fragmentach było widać równe stopniowanie.
Mi tylko chodzi o to, ze powinienes dopatrzec sie czegos na parapecie
...
no dobra - byloby dopatrywanie sie w bardzo ciemnych partiach, a na
oko to pewnie widziales go calkiem jasno.
>>>> -skrajny lewy byl nie 0, tylko troche wyzej, chcialem jasniej,
>>>> godziłem sie na płowe.
>
>>> .. i tym samym spowodowałeś, że dużo mniej detali było widać.
>
>> Smiem twierdzic, ze u mnie wiecej.
>To dlatego, że masz paradoksalnie kiepski monitor.
Ale za to typowy :-)
> Skoro technicznie (zliczając) mniej stopni szarości (skutek
> rozjaśniania) wyświetlonych jaśniej dało więcej widocznych stopni
> szarości - to znaczy, że charakterystyka świecenia pikseli jest u
> Ciebie prawie randomowa.
Nie - po prostu te o niskiej wartosci sa u mnie "czarne".
>>>> -drugi lewy podciagnalem bardzo wysoko, gdzies na 80% -
>>>> interesowaly mnie ciemne partie, a nie jasne.
>
>>> Jaki drugi lewy? Lewy handler jest tylko jeden :-D
>
>> Drugi od lewej. U Ciebie gdzies 6% -> 25%
>Akurat jak u mnie było, to nie wiem. W ACR to się działo. Tam nie
>widać handlerów i krzywej.
Rozumiem. Czyli co on zrobil to nie bardzo wiadomo ... ale domyslamy
sie, ze mniej wiecej to, co zademonstrowales na krzywej.
>> No ale dlaczego aparat z tysiacami scen nie ma kilku na sniegu i
>> nie dobiera sobie poprawnej sceny ?
>Bo nie ma detektora śniegu. Czym śnieg różniłby się od szarej ściany?
To po co mu te tysiace scen do dopasowania, skoro ich pewnie tez moze
wykryc ?
>Raz jeszcze: popatrz na śnieg przez rurkę a potem na ścianę. Spróbuj
>odróżnić. Zrb to o różnych porach dnia i nocy.
Jak sie ma tysiace scen, to mozna miec kilka ze sniegiem o roznych
godzinach :-)
No ale jasny snieg czy biala sciana ... co za roznica ?
Ma rozpoznac, ze to ma byc naprawde biale, i nas nie badzo
interesuje - osoby maja byc prawidlowo naswietlone.
Tak jak te twoje packshoty na bialym tle.
>>> Zrób sobie prosty test. Popatrz sobie na szarą ścianę przez rurkę
>>> po ręczniku papierowym. Oświetl ją z rosnącą powoli jasnością ze
>>> źródła światła. Zatrzymaj narastanie jasności, gdy uznasz, że
>>> ściana jaką widzisz jest właśnie tak jasna a inne warianty są
>>> niewłaściwe.
>
>> Nie bardzo rozumiem - mam uznac, ze jest tak jasna jak ... co ?
>Brawo! Słuszne pytanie! "Jasna jak co?". Skoro Ty tego nie wiesz, to
>urządzenie ma wiedzieć??? Jakbyś to oprogramował zatem?
>Nie da się!. Dlatego wymyślono syntetyczny parametr 18% szarości:
>https://en.wikipedia.org/wiki/Gray_card
>Aparat patrząc na śnieg obniża czułość tak, aby wyszła ok właśnie 18%
>szarości. Dlatego staje się on szary.
O ile pamietam, to te karte wymyslono, bo skora bialego czlowieka
odbija 18%, wiec do niej dobierano oswietlenie.
Ale chyba cos zle pamietam
https://en.wikipedia.org/wiki/Zone_System
lepiej opisane po szkopsku
https://de.wikipedia.org/wiki/Zonensystem
https://de.wikipedia.org/wiki/Graukarte
Jasna skora to strefa 6, odbija 25% i na zdjeciu ma byc ... jasna, ale
nie snieznobiala.
A 18% - srodek zakresu tonalnego ... srebrowej fotografii.
Co do aparatow - to chyba tylko stare "idiotenkamery" patrzyly na
calosc, no i jeszcze starsze aparaty z wbudowanym swiatlomierzem,
ktore w swoich czasach nie mogly byc "idioten" :-)
Teraz, zeby uniknac takich cudow masz wybor pomiaru - sredni,
centralny, sredni-wazony, no i te sceny.
Lustrzanki to osobny klopot, bo tam w zasadzie matryca nie widzi przed
zdjeciem, wiec trzeba kombinowac.
>>> Zatem, która ekspozycja będzie Twoim zdaniem tą właściwą? I teraz
>>> przełóż to na logikę aparatu cyfrowego i zastanów się skąd są
>>> problemy ze śniegiem.
>> A te tysiace scen to do czego sluza ?
>Np. do wykrycia, że to zdjęcie jest portretowe i dla jasnej cery
>trzeba ABW odpowiednio podrasować.
No to niech wykryje, ze to zdjecie na sniegu, na tle jasnej sciany czy
na tle jasnego nieba i niech rasuje.
Skoro zaplaciles za aparat z tysiacem scen, to wymagasz :-)
Albo po prostu jako profesjonalista znajacy swoj sprzet wiesz, ze tu
trzeba skorygowac naswietlenie, bo aparat zle to zrobi.
>> I parapet wychodzi tak czarny, ze nic nie widac :-)
>iiiii?
Tak sie domyslam, ze jak uruchomisz program i wczytasz tego ARW bez
ruszania czegokolwiek, to parapet bedzie czarny.
No chyba, ze program pamieta ostatnie parametry konwersji ... a nie ma
jakiegos przycisku "reset to default" ?
J.
-
232. Data: 2019-04-18 13:15:22
Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
Od: Starzec z Gór <d...@v...pl>
W dniu czwartek, 18 kwietnia 2019 11:46:43 UTC+2 użytkownik J.F. napisał:
> O ile pamietam, to te karte wymyslono, bo skora bialego czlowieka
> odbija 18%, wiec do niej dobierano oswietlenie.
>
> Ale chyba cos zle pamietam
> https://en.wikipedia.org/wiki/Zone_System
>
> lepiej opisane po szkopsku
> https://de.wikipedia.org/wiki/Zonensystem
> https://de.wikipedia.org/wiki/Graukarte
>
> Jasna skora to strefa 6, odbija 25% i na zdjeciu ma byc ... jasna, ale
> nie snieznobiala.
> A 18% - srodek zakresu tonalnego ... srebrowej fotografii.
Zasadniczo tak. Przy kontrastowych motywach, korzystając z pomiaru światła odbitego
od szarej karty, otrzymujemy negatyw, gdzie wykorzystujemy najszerszy zakres krzywej
czułości. Mamy wtedy zarejestrowane detale od głębokich cieni do wysokich świateł.
>
> Co do aparatow - to chyba tylko stare "idiotenkamery" patrzyly na
> calosc, no i jeszcze starsze aparaty z wbudowanym swiatlomierzem,
> ktore w swoich czasach nie mogly byc "idioten" :-)
>
> Teraz, zeby uniknac takich cudow masz wybor pomiaru - sredni,
> centralny, sredni-wazony, no i te sceny.
>
> Lustrzanki to osobny klopot, bo tam w zasadzie matryca nie widzi przed
> zdjeciem, wiec trzeba kombinowac.
Dlatego w lustrzankach zastosowano pomiar matrycowy, i wielopunktowy. Pierwsza
matryca - Nikon FA 1983 rok. I w zasadzie na dziś dzień stosują go wszystkie aparaty
cyfrowe - przy czym pomiar jest dokonywany albo na matrycy właściwej, zdjęciowej,
albo w przypadku lustrzanek na osobnym elemencie wbudowanym w tor optyczny.
Pozdrawiam Marcin
-
233. Data: 2019-04-19 11:54:22
Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
Od: "J.F." <j...@p...onet.pl>
Użytkownik "Starzec z Gór" napisał w wiadomości grup
dyskusyjnych:396aa293-ec7b-489b-b087-e25fc30b930c@go
oglegroups.com...
W dniu czwartek, 18 kwietnia 2019 11:46:43 UTC+2 użytkownik J.F.
napisał:
>> Lustrzanki to osobny klopot, bo tam w zasadzie matryca nie widzi
>> przed
>> zdjeciem, wiec trzeba kombinowac.
>Dlatego w lustrzankach zastosowano pomiar matrycowy, i wielopunktowy.
>Pierwsza matryca - Nikon FA 1983 rok. I w zasadzie na dziś dzień
>stosują go wszystkie aparaty cyfrowe - przy >czym pomiar jest
>dokonywany albo na matrycy właściwej, zdjęciowej, albo w przypadku
>lustrzanek na osobnym elemencie wbudowanym w tor optyczny.
Tylko, zebys nie wprowadzil mlodszych czytelnikow w blad z ta matryca
https://en.wikipedia.org/wiki/Nikon_FA
"AMP used a light meter with two segmented silicon photodiodes to
divide the field of view into five segments: the center and the four
outer quadrants.
The readings of the various segments would be analyzed by a four-bit
microchip computer (with a 524 kHz central processing unit (CPU) and 8
KB of memory) programmed to look for exposure errors caused by
unusually bright or dark luminance patches and automatically correct
the exposure settings.
Nippon Kogaku said that the program was written after the visual
assessment of nearly 100,000 photographs.
As the first generation of matrix metering, AMP was hardly foolproof.
For instance, holding the FA vertically instead of horizontally might
cause the meter to give different readings of the same scene. However,
AMP was still demonstrably superior to the centerweighted type of
light metering then in common use. AMP would give a good exposure
90-95% of the time versus 85-90% for centerweighting. "
No i tak troche przestalem rozumiec ... tych fodiod bylo naprawde 5, z
czego 4 w jednej obudowie ?
http://www.mir.com.my/rb/photography/hardwares/class
ics/nikonfa/fatech/matrixflowchart.htm
J.
-
234. Data: 2019-04-19 12:35:38
Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
Od: Starzec z Gór <d...@v...pl>
W dniu piątek, 19 kwietnia 2019 11:56:03 UTC+2 użytkownik J.F. napisał:
> Użytkownik "Starzec z Gór" napisał w wiadomości grup
> dyskusyjnych:396aa293-ec7b-489b-b087-e25fc30b930c@go
oglegroups.com...
> W dniu czwartek, 18 kwietnia 2019 11:46:43 UTC+2 użytkownik J.F.
> napisał:
> >> Lustrzanki to osobny klopot, bo tam w zasadzie matryca nie widzi
> >> przed
> >> zdjeciem, wiec trzeba kombinowac.
>
> >Dlatego w lustrzankach zastosowano pomiar matrycowy, i wielopunktowy.
> >Pierwsza matryca - Nikon FA 1983 rok. I w zasadzie na dziś dzień
> >stosują go wszystkie aparaty cyfrowe - przy >czym pomiar jest
> >dokonywany albo na matrycy właściwej, zdjęciowej, albo w przypadku
> >lustrzanek na osobnym elemencie wbudowanym w tor optyczny.
>
> Tylko, zebys nie wprowadzil mlodszych czytelnikow w blad z ta matryca
> https://en.wikipedia.org/wiki/Nikon_FA
Ale że co? Pomiar matrycowy może być też dokonany na matrycy zdjęciowej, czyż nie?
Biorę sobie do ręki współczesną cyfrówkę, i mam do wyboru : pomiar integralny,
centralno-ważony, punktowy i właśnie matrycowy. Co prawda najczęściej i tak mierzę
centralno ważonym albo punktowym, ale to już moje nawyki.
>
> "AMP used a light meter with two segmented silicon photodiodes to
> divide the field of view into five segments: the center and the four
> outer quadrants.
> The readings of the various segments would be analyzed by a four-bit
> microchip computer (with a 524 kHz central processing unit (CPU) and 8
> KB of memory) programmed to look for exposure errors caused by
> unusually bright or dark luminance patches and automatically correct
> the exposure settings.
> Nippon Kogaku said that the program was written after the visual
> assessment of nearly 100,000 photographs.
>
> As the first generation of matrix metering, AMP was hardly foolproof.
> For instance, holding the FA vertically instead of horizontally might
> cause the meter to give different readings of the same scene. However,
> AMP was still demonstrably superior to the centerweighted type of
> light metering then in common use. AMP would give a good exposure
> 90-95% of the time versus 85-90% for centerweighting. "
>
> No i tak troche przestalem rozumiec ... tych fodiod bylo naprawde 5, z
> czego 4 w jednej obudowie ?
Fotodiody były dwie.Podzielone na sektory.
>
>
> http://www.mir.com.my/rb/photography/hardwares/class
ics/nikonfa/fatech/matrixflowchart.htm
Przekombinowali.
Pozdrawiam Marcin
-
235. Data: 2019-04-19 18:05:12
Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
Od: "J.F." <j...@p...onet.pl>
Użytkownik "Starzec z Gór" napisał w wiadomości grup
dyskusyjnych:f40413d2-f4bb-415e-905c-749b96c227b4@go
oglegroups.com...
W dniu piątek, 19 kwietnia 2019 11:56:03 UTC+2 użytkownik J.F.
napisał:
>> >> Lustrzanki to osobny klopot, bo tam w zasadzie matryca nie widzi
>> >> przed zdjeciem, wiec trzeba kombinowac.
>
>> >Dlatego w lustrzankach zastosowano pomiar matrycowy, i
>> >wielopunktowy.
>> >Pierwsza matryca - Nikon FA 1983 rok. I w zasadzie na dziś dzień
>> >stosują go wszystkie aparaty cyfrowe - przy >czym pomiar jest
>> >dokonywany albo na matrycy właściwej, zdjęciowej, albo w przypadku
>> >lustrzanek na osobnym elemencie wbudowanym w tor optyczny.
>
>> Tylko, zebys nie wprowadzil mlodszych czytelnikow w blad z ta
>> matryca
>> https://en.wikipedia.org/wiki/Nikon_FA
>Ale że co? Pomiar matrycowy może być też dokonany na matrycy
>zdjęciowej, czyż nie?
Moze, tylko tamten "pomiar matrycowy" korzystal z calkiem innej
matrycy.
Nawiasem mowiac - ten "sredniowazony" pomiar w Zenicie TTL, to byly
dwa fotorezystory umieszczone w rogach pryzmatu pentagonalnego, ktore
chyba na matowke patrzyly ... ale jak madrze brzmi :-)
>> "AMP used a light meter with two segmented silicon photodiodes to
>> divide the field of view into five segments: the center and the
>> four
>> outer quadrants.
>> No i tak troche przestalem rozumiec ... tych fodiod bylo naprawde
>> 5, z
>> czego 4 w jednej obudowie ?
>Fotodiody były dwie.Podzielone na sektory.
Czyli de facto osobnych fotodiod (sektorow) ... ale w dwoch osobnych
obudowach ?
W jednej mierzaca centrum, a w drugiiej 4 sektory ?
>> http://www.mir.com.my/rb/photography/hardwares/class
ics/nikonfa/fatech/matrixflowchart.htm
>Przekombinowali.
Nikon, czy ci opisujacy jak to dzialalo ?
J.
-
236. Data: 2019-04-20 00:40:54
Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
Od: Starzec z Gór <d...@v...pl>
W dniu piątek, 19 kwietnia 2019 18:06:53 UTC+2 użytkownik J.F. napisał:
> Użytkownik "Starzec z Gór" napisał w wiadomości grup
> dyskusyjnych:f40413d2-f4bb-415e-905c-749b96c227b4@go
oglegroups.com...
> W dniu piątek, 19 kwietnia 2019 11:56:03 UTC+2 użytkownik J.F.
> napisał:
> >> >> Lustrzanki to osobny klopot, bo tam w zasadzie matryca nie widzi
> >> >> przed zdjeciem, wiec trzeba kombinowac.
> >
> >> >Dlatego w lustrzankach zastosowano pomiar matrycowy, i
> >> >wielopunktowy.
> >> >Pierwsza matryca - Nikon FA 1983 rok. I w zasadzie na dziś dzień
> >> >stosują go wszystkie aparaty cyfrowe - przy >czym pomiar jest
> >> >dokonywany albo na matrycy właściwej, zdjęciowej, albo w przypadku
> >> >lustrzanek na osobnym elemencie wbudowanym w tor optyczny.
> >
> >> Tylko, zebys nie wprowadzil mlodszych czytelnikow w blad z ta
> >> matryca
> >> https://en.wikipedia.org/wiki/Nikon_FA
>
> >Ale że co? Pomiar matrycowy może być też dokonany na matrycy
> >zdjęciowej, czyż nie?
>
> Moze, tylko tamten "pomiar matrycowy" korzystal z calkiem innej
> matrycy.
Jak weźmiesz lustrzankę cyfrową to też masz dwie matryce - pomiarową i zdjęciową.
IMHO ważny jest sposób pomiaru, a nie miejsce gdzie się odbywa, byle był TTL.
>
> Nawiasem mowiac - ten "sredniowazony" pomiar w Zenicie TTL, to byly
> dwa fotorezystory umieszczone w rogach pryzmatu pentagonalnego, ktore
> chyba na matowke patrzyly ... ale jak madrze brzmi :-)
Jakoś tak. Ale skuteczny ten pomiar był, jeżeli trafiłeś na produkcję ze środy w
środku miesiąca.
>
>
> >> "AMP used a light meter with two segmented silicon photodiodes to
> >> divide the field of view into five segments: the center and the
> >> four
> >> outer quadrants.
>
> >> No i tak troche przestalem rozumiec ... tych fodiod bylo naprawde
> >> 5, z
> >> czego 4 w jednej obudowie ?
>
> >Fotodiody były dwie.Podzielone na sektory.
>
> Czyli de facto osobnych fotodiod (sektorow) ... ale w dwoch osobnych
> obudowach ?
> W jednej mierzaca centrum, a w drugiiej 4 sektory ?
Nie jestem pewny na 100%, ale wydaje mi się że 2 fotodiody (pewne) podzielone każda
na 3 sektory (domysł). Centralny wspólny.
>
> >> http://www.mir.com.my/rb/photography/hardwares/class
ics/nikonfa/fatech/matrixflowchart.htm
> >Przekombinowali.
>
> Nikon, czy ci opisujacy jak to dzialalo ?
Ci od opisów.
Pozdrawiam Marcin
-
237. Data: 2019-04-21 19:26:44
Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
Od: Marek S <p...@s...com>
W dniu 2019-04-18 o 11:45, J.F. pisze:
>
>> I masz rację. To odwrotność jasności:
>> https://drive.google.com/file/d/1BDAacCfa7vISUxoMnRA
O3hIqg-FixX1T/view?usp=sharing
>>
>
>> Innymi słowy, czarne zamienia się miejscami z białym, czego ja nie lubię.
>
> Nawet nie o to mi chodzi, tylko o to, ze konwersja wartosci piksela na
> jasnosc ... wydruku, bedzie calkiem inna niz na monitorze.
Nikt nad takimi duperelami się nie zastanawia nawet. Problem wygląda na
wyssany z palca i pretenduje do tematyki kółka filozoficznego dla
zwolenników płaskiej Ziemi :-D
> No ale moze potrafi to odpowiednio skorygowac ... ale skoro jest, to
> widac komus bylo to potrzebne :-)
Np. mnie. Zresztą nie tylko. Gdy oglądam na YT sztuczki grafików w celu
poszerzenia umiejętności, to również zwracam na konfigurację narzędzi. I
ten właśnie sposób konfiguracji narzędzia odziedziczyłem po jednym z nich.
>>>> Znów nie wiem o czym mówisz. Chodzi o pierwszy z 3 wykresów jakie
>>>> przytoczyłem? Tam losowo wybrałem 63.
>>
>>> Raczej o te prosta konwersji, ktora pokazywales pare dni wczesniej.
>
>> ... i której nigdy do niczego nie użyłem? Już kojarzę.
>
> To bylo nie pokazywac :-)
Skoro pytałeś czym jest brightness, to pokazałem. Miałem Cię olać?
>> Tam wybrałem kompresję tonalną. Nie rozjaśniałem żadnego z
>> prezentowanych zdjęć, nawet w celach demonstracyjnych. A różnica
>> względem rozjaśnienia polega na - jak również wiele razy wyjaśniałem -
>> nie ruszaniu żadnego z handlerów.
>
> Kiedys tam napisales, ze te kwadraciki w srodku krzywej to tez handlery.
Tak, zgadza się - o ile są. Na screenshocie narzędzi, który omawiamy są
tylko dwa: na początku i na końcu. Wyłącznie to miałem na myśli.
Handlerów (uchwytów) może być sporo.
>> Natomiast Krzywa kompresji staje się dość złożona.
>
> Jesli odpowiada takiej, jak pokazywales na jednym z widokow, to IMO jest
> calkiem trywialna.
Owszem, ta, co pokazałem jest trywialna i nie używana przeze mnie w
niniejszym wątku i prawie nigdy w pozostałych sytuacjach.
> Nie. Patrze tylko JPG wygenerowany przez Ciebie.
>
> Ty w jednej jego polowie umiesciles swoj obraz z ARW, a po drugiej to co
> otwarles z "przetworzonego" przez mnie ARW.
>
> Mowisz, ze oba ARW sa takie same, a na tym JPG ten sam piksel z obu
> obrazow jest inny.
Zapewne mówisz o:
https://drive.google.com/file/d/1SfhAx__hj9I7eqti9h4
ZHqy_6Uyol8Vs/view?usp=sharing
Jeśli tak, to niczego nie zrozumiałeś. ARW są takie same __BO NIE DA SIĘ
W ŻADEN SPOSÓB__ programami graficznymi zmienić struktury RAW. Powyższy
test wykazał to. Mimo to twierdziłeś, że zmieniłeś strukturę ARW za
pomocą programu Sony Image coś tam. Przytoczyłem Ci więc zdanie z
instrukcji obsługi tego programu, gdzie wyraźnie napisano, że niczego
takiego on nie potrafi, jak sugerowałeś.
A to, że gdzieś w dyskusji wygenerowałem jakiś JPG kompletnie niczego
nie oznacza. JPG to tylko jedna z wielu interpretacji ARW, których może
być nieskończenie wiele. Biele możesz zamienić w czerń a czernie w biel.
To też będzie jedną z interpretacji zrealizowanych suwaczkami w ACR.
Wybrałem na potrzeby dyskusji jakąś z nich i tyle. Mało tego, nie jestem
w stanie odtworzyć jaka ona była, bo mam jedynie plik ARW - nie
zapisywałem pliku XMP zawierającego listę korekt. Z pewnością nie były
to żadne proste korekcji - co mi próbowałeś wielokrotnie przypisać.
Potem używasz tego randomowo wygenerowanego JPG do tworzenia jakiś teorii.
Jeszcze raz powtórzę: jeśli masz dwie kopie jakiegokolwiek RAW, to przy
tej samej konwersji do bezstratnego formatu (TIFF, PNG itp) otrzymasz
identyczne obrazy co do piksela. I tylko to pokazałem na tym podwójnym
zdjęciu Twojego i mojego RAW, gdzie byłeś przekonany, że Twój RAW musi
zawierać naniesione przez Ciebie zmiany. Udowodniłem, że nie zawierał.
To było moim jedynym celem.
>> Owszem, bardzo dziwna: mocno nieliniowa z zachowaniem krańcowych
>> wartości.
>
> No wlasnie - skoro koncowe wartosci zachowane, to czy aby na pewno
> kompresja.
Tak. Kompresja nie musi działać na całość zakresu tonalnego.
>> Absolutnie nie!!! Po raz 18ty zaprzeczam: nie użyłem tam żadnej
>> prostej konwersji.
>
> Ja tylko o tym, czy to nie jest taki przypadek, gdzie mozna uzyc takiej
> konwersji.
> I przypominam cel - chcemy zobaczyc co sie kryje w tych ciemnych partiach.
> Reszta mnie w zasadzie nie interesuje.
>
> Owszem - szara breja nam tego nie ulatwi.
I jak sam zauważyłeś - nie tylko nie ułatwi, ale wręcz zdewastuje
zdjęcie na tyle, że już niczego nie zobaczymy z tego, co było w
ciemniejszych fragmentach. __Nie WOLNO__ używać prostych konwersji. Nie
nadają się do tego celu.
>>> to jakby to sie nazywalo ?
>> Tak samo: zmniejszasz liczbę tonów w obrazie.
>
> Ja bym rzekl, ze rozpietosc tonalna jednych partii kompresuje, zeby
> rozpietosc innych partii rozszerzyc.
Ok, to w rozmowie z grafikami używaj terminu "używamy
kompreso-ekspandera kontrastowo jasnościowego". Będzie to wierniejsze
określenie i z pewnością staniesz się wtedy znany w środowisku :-D
> Co do ilosci tonow - przy 8-bit cz-b (szarych) obrazkach mialbys troche
> racji - oryginal zawieral powiedzmy 256 poziomow szarosci,
> po takiej operacji niektore z nich znikna.
> Ale kto stoi i liczy ile poziomow szarosci jest obecnych w obrazie ?
> Raczej patrzy czy czernie nie są "płowe", a biele szare. A srajnych
> punktow jak piszesz - nie ruszasz.
Więc bez sensu jest takie filozofowanie, jak sam teraz postrzegasz.
>>> Zarzut rozumiem, tylko ze dla demonstracji prawidlowej metody
>>> przyslales mi wykres z prosta, ktora 0 zamieniala w 63.
>> Po raz 19ty zaprzeczam temu.
>
> Ze wyslales, czy ze nazwales to prawidlowa metoda ?
Zaprzeczam temu, że coś takiego Ci wysyłałem w celu jaki opisujesz. Cel
był zupełnie inny, co tłumaczyłem znacznie mniej niż 19 razy.
> Bylo od razu pokazac te krzywa, to bys nie musial 19 razy zaprzeczac.
Jak powyżej wspomniałem tu i w innej gałązce - nie mam tej krzywej gdyż
ACR tak nie działa. Tzn też tak może działać ale ja nie wykorzystałem
operacji na krzywej w sposób jawny. Nie wiem jaki kształt ACR wybrał
sobie jako skutek moich zabiegów.Nie sądziłem, że o krzywej będziemy
gadać skoro nie o tym miał być wątek.
>> Przy oknie ta krzywa była zupełnie inna ale zasada podobna. Krzywa,
>> której użyłem miała 4 węzły.
>
> A moja 3, choc w co tu mowic o wezlach, skoro to jest krzywa
> nieokreslonego rodzaju.
Bo każda krzywa Beziera (chyba tak możemy ją nazwać) bazuje na węzłach i
stycznych. Miej więcej tak działa funkcjonalność manipulacji tym wykresem.
>>> Moze i swiatlomierz wykrylby 100% roznice jasnosci, ale moje oko nie.
>>> Przynajmniej w jasnym otoczeniu nie.
>> Pełna zgoda. W końcu 1ev różnicy to dla oka prawie nic.
>
> O, nie tak znowu nic - w ciemni pewnie bym zobaczyl roznice, jakbym pol
> ekranu mial w jasnosci 0, a pol w jasnosci 1.
No, ok. Niech będzie skoro mamy być purystami. Ja miałem na myśli
normalne warunki. Idziesz przeciętną ulicą przeciętnego dnia gdzie
oświetlenie jest przeciętne skoro dwa pierwsze warunki też takie są.
Robisz o 1ev jaśniej i widzisz trochę jaśniej. Gdybyś nie skupił się na
fakcie wystąpienia tejże zmiany, to pewnie byś jej nawet nie zauważył.
Ja natomiast takie rzeczy obserwuję prawie na co dzień. RObię fotę
jakiegoś pomieszczenia pod nieco innym kątem - światłomierz pokazuje 1ev
różnicy. A ja patrzę w ten i poprzedni punkt i pytam: seriously?? Ale
mimo to posłusznie koryguję czas naświetlania... A to dlatego, ze 1ev
dla oka to nic, ale na w aplikacji graficznej robi to kolosalną
różnicę... bo aparat widzi inaczej. Dlatego też ludzie składają HDRy dla
obrazów różniących się zaledwie 1-2ev a nie np. 7ev. I do tego m.in.
tytuł wątku nawiązuje.
> A kto wie, co by pokazal swiatlomierz, jakby tak zmierzyc ... tylko to
> juz chyba nie fotograficzny musialby byc.
Ja wiem na pamięć, co pokazałby światłomierz. Nie wiem co masz na myśli:
fotograficzny czy zwykły? Fotograficzny potrafi dużo więcej. To jedyna
różnica.
A propos... przypomniałem sobie dyskusję o jasnościach sceny. Przed
chwilą wykonałem podobne zdjęcie do omawianego kiedyś tam:
https://drive.google.com/file/d/1R8-cjg98tXk_fthiIe_
nWsTzKvnZbpG5/view?usp=sharing
Pomierzyłem jasności w luxach swoim światłomierzem. Tryb kierunkowy
wybrałem. Wyszły mi wyniki zupełnie inne niż wyczytałeś gdzieś tam.
Ściana ma 110lux, krzaki 1600 lux a niebo 4800 lux. Po prawej stronie
wiele korekt w ACR by było widać, co zrobiłem. Zapewniam: żadna z korekt
nie była zwykłą prostą (co zasugerujesz pewnie po raz 20ty).
> Mi tylko chodzi o to, ze powinienes dopatrzec sie czegos na parapecie ...
> no dobra - byloby dopatrywanie sie w bardzo ciemnych partiach, a na oko
> to pewnie widziales go calkiem jasno.
I o to właśnie chodziło - całkiem jasno. A w 14-bitowej matrycy
musiałbym HDRa składać by podobnie widzieć.
>> To dlatego, że masz paradoksalnie kiepski monitor.
>
> Ale za to typowy :-)
6 bitów w lapku, to już nie jest typowy :-)
I jako ciekawostka: aby na typowych monitorach, typowi oglądacze nie
powiedzieli na zdjęcie: ble, trzeba je mocno zdewastować:
1. Przekolorować.
2. Jeśli dominują ciemne kolory: zredukować dynamikę do 7-bitów w
kierunku jasnych.
3. Przekontrastować.
Wtedy procent zadowolonych do niezadowolonych mocno wzrasta. I co
jeszcze ciekawsze, Ci niezadowoleni czasem krytykują tak zniszczone
zdjęcia jako ... zbyt dobre. To cytat.
>>> Drugi od lewej. U Ciebie gdzies 6% -> 25%
>
>> Akurat jak u mnie było, to nie wiem. W ACR to się działo. Tam nie
>> widać handlerów i krzywej.
>
> Rozumiem. Czyli co on zrobil to nie bardzo wiadomo ... ale domyslamy
> sie, ze mniej wiecej to, co zademonstrowales na krzywej.
Bardzo luźno powiązane było moje doświadczenie z realnym wynikiem, ale
generalnie tak.
>> Bo nie ma detektora śniegu. Czym śnieg różniłby się od szarej ściany?
>
> To po co mu te tysiace scen do dopasowania, skoro ich pewnie tez moze
> wykryc ?
M.in. po to by balans bieli umieć wykryć. Po to by umieć optymalną dla
oka jasność ustawić i pewnie jeszcze coś. To nie tylko matematyka ale i
"doświadczenia" takie jak my zbieramy. W końcu nie widzimy na
pomarańczowo w oświetleniu żarowym. Aparat jakoś musi się dowiedzieć, że
jest w pokoju, w którym żarówki są.
>> Raz jeszcze: popatrz na śnieg przez rurkę a potem na ścianę. Spróbuj
>> odróżnić. Zrb to o różnych porach dnia i nocy.
>
> Jak sie ma tysiace scen, to mozna miec kilka ze sniegiem o roznych
> godzinach :-)
Powodzenia.
> No ale jasny snieg czy biala sciana ... co za roznica ?
Właśnie. Żadna dla aparatu!
> Ma rozpoznac, ze to ma byc naprawde biale, i nas nie badzo interesuje -
> osoby maja byc prawidlowo naswietlone.
> Tak jak te twoje packshoty na bialym tle.
Doprawdy? A ciemnoszara ściana też ma być śnieżnobiała? Idąc tym
sposobem rozumowania, tak właśnie miałoby być.
Czy wobec powyższego, naukowcy, którzy opracowują "inteligencję"
aparatów to skończone głąby, skoro nie potrafią sprzętu nauczyć odróżniania?
>> Aparat patrząc na śnieg obniża czułość tak, aby wyszła ok właśnie 18%
>> szarości. Dlatego staje się on szary.
>
> O ile pamietam, to te karte wymyslono, bo skora bialego czlowieka odbija
> 18%, wiec do niej dobierano oswietlenie.
Możliwe, nie jest to istotne. W każdym razie posługując się tą kartą
wykonasz zdjęcie z bardzo dobrze dobraną ekspozycją, zarówno na śniegu
jak i ciemnoszarej ściany. Znika problem "szarego śniegu".
>
> Ale chyba cos zle pamietam
> https://en.wikipedia.org/wiki/Zone_System
Nie będę komentował, bo nie wiem jak to się ma do współczesności.
> Lustrzanki to osobny klopot, bo tam w zasadzie matryca nie widzi przed
> zdjeciem, wiec trzeba kombinowac.
Dlatego nie chciałem lustrzanki, kupiłem alternatywę. Mam mnóstwo
problemów mniej. Kiedyś środowisko reagowało zdziwieniem na taki mój
pogląd a teraz to samo środowisko powoli się nawraca.
> Tak sie domyslam, ze jak uruchomisz program i wczytasz tego ARW bez
> ruszania czegokolwiek, to parapet bedzie czarny.
>
> No chyba, ze program pamieta ostatnie parametry konwersji ... a nie ma
> jakiegos przycisku "reset to default" ?
Hę?? Nie wiem o czym piszesz. Ja robię zdjęcia w trybie manualnym. Z
automatyki korzystam, gdy nie można inaczej.
--
Pozdrawiam,
Marek
-
238. Data: 2019-04-22 15:38:51
Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
Od: Marek S <p...@s...com>
W dniu 2019-04-17 o 12:03, J.F. pisze:
> Jest mozliwosc, ze jak to otwierasz w swoich programach, to to co
> zapisal IE jest ignorowane.
> On sam siebie zreszta tez jakos ignoruje.
Kłopot wynika z tego, że nie rozumiesz czym jest obróbka plików RAW
praktycznie w jakimkolwiek sofcie. Gdy ruszasz suwakami, coś tam
zmieniasz, to struktura RAW nie zmienia się ani odrobinę. Koniec kropka.
>>> Ja patrze na ten jeden jpg, ktory wyprodukowales
>>> https://drive.google.com/file/d/1SfhAx__hj9I7eqti9h4
ZHqy_6Uyol8Vs/view?usp=sharing
>>>
>>
>>> I to jest gorny rog tego kwadracika na szybie.
>>> Ale chyba widze, ze rozdzielczosci sa inne ... moze przesunales o 1
>>> piksel, a moze objawila sie stratnosc kompresji JPG - musialbys drugi
>>> obraz umiescic przesuniety o wiekrotnosc 8.
>
>> No coś Ty! Zdjęcia są identyczne.
>
> Marku - ale na powyzszym - jakie masz wartosci dla pikseli
> 494,275
> 1491,275
W obu (183, 183, 175). I co z tego ma wynikać poza tym, że są
identyczne, jak już napisałem?
> Ale ten obrazek powyzej ma znacznie mniejsza rozdzielczosc.
> Moze jak go montowales, to przestawiles te duze o 1 px, i w efekcie ja
> patrzac na "ten sam piksel"
> mierze zestawiony z innych pikseli oryginalu.
Tylko dzięki funkcji przyciągania te obrazki ułożyły się równo.
Faktycznie nie dbałem o ich ułożenie bo nie sądziłem, że piksele
będziesz badał. Czysty przypadek.
>> Zaraz będę wył. Na samym dole przedstawiam listing takowego z jakieś
>> pierwszej z brzegu foty jaką znalazłem na swoim kompie. Ja to nazywam
>> tekstem.
>
> Twoje programy zapisuja tekst.
> A Imaging Edge zapisuje cos innego.
Jak czytam tu:
https://support.d-imaging.sony.co.jp/app/imagingedge
/en/instruction/5_3_save_adjustment.php
jest to plik XML. To też tekst. Nawet jeśli trzyma w bazie danych te
zmiany, to zawsze one są tekstem. To jest standard. Chyba Lightroom może
tak robić, ze pliki ze zmianami trzymane są bazie lub w plikach. Przy
czym można to konfigurować. Jeśli chcesz zobaczyć te zmiany w formie
tekstowej, to użyj procedury z powyższej instrukcji obsługi programu.
>> Super, więc pewnie wstrzeliłeś się np. w osadzonego JPG lub zakodowane
>> dane konfiguracyjne itd. Możliwości jest wiele.
>
> I co - myslisz, ze jesli 24MB z 25MB jest takie same, to to sa dane
> konfiguracyjne ?
...plus osadzony JPG. A dane nie konfiguracujne lecz informacyjne -
takie jak zastosowana przesłona, czas, koordynaty GPS i kupa innych.
Choć być może w/w soft również tekstowe instrukcje zmian jakoś dołącza.
Tego nie wiem i nie chcę wiedzieć.
> Ale tu akurat nie mamy sie o co klocic - przyznaje, ze wiekszosc pliku
> jest niezmieniona i to beda te dane pikseli.
Więc w tej niezmienionej części powinieneś szukać zmian, których ... nie
ma :-D
>>> Dlatego tez zapisalem sobie po prostej zmianie, i porownalem pliki.
>> Skoro wystąpiła w plikach choćby najdrobniejsza różnica, to zrobiłeś
>> to źle. Bo taka jest natura RAW - nie da się ingerować normalnym
>> softem graficznym w jego strukturę.
>
> Ja tam mysle, ze jesli program ma opcje "zapisz jako ARW", to cos tam
> jednak zapisuje.
Ok, ale musiałbyś kościół wyznaniowy do tej teorii utworzyć. Ja z
pewnością będę jedynie się uśmiechał przechodząc obok :-D
Jedyne co tego typu programy zapisują, to listę zmian w postaci tekstu.
Niezależnie czy będzie to w bazie danych, czy w pliku XMP/XML, czy
dołączony RAW.
> Ale sie zgadzamy, ze wyglada na to, ze IE pikseli nie zmienil, tylko
> jakies inne dane.
Sprostowanie: ja to wiedziałem od samego początku, a Ty się zgodziłeś z
tym w poście nr 567658760.
>> Tak jak pisałem: nie złożysz dwóch zdjęć ze sobą jeśli miały inną
>> przesłonę. Cel składania nieistotny. Nie skupiajmy się na nim.
>
> Ale ja nie chce skladac - mnie wystarczy jedno zdjecie z jasnym
> parapetem :-)
To zaczekaj do 22 wieku :-D
Póki co, na bazie niniejszego wątku, uważam, że to niewykonalne.
>> Po drugie, co też pisałem, ruszając przesłonę __ZMIENIASZ GŁĘBIĘ
>> OSTROŚCI__ Co mi ze zdjęcia modelki, gdzie tylko czubek nosa będzie
>> ostry a reszta rozmyta?
>
> Czasem tak ma byc i tak jest lepiej .
Przy składaniu zdjęć - bo o tym mówiłem - to niedopuszczalne. Nie
zmieniaj kontekstu. Nawet jeśli teraz powiedziałeś, że nie chcesz
składać, to i tak mój kontekst mojej wypowiedzi obowiązuje.
>
> I to jest temat na ewentualny dalszy ciag dyskusji o fotografowaniu
> rzeczywistosci - gdy oko uwaza ze monitor jest tak samo jasny jak okno,
> a kamera bedzie bezlitosna.
Sęk w tym, że ten temat miał być jedynym poruszanym w niniejszym wątku -
patrz tytuł.
> Tylko ... jak sfotografujesz swoim Sony monitor na tle nieba, a potem
> odpowiednio rozjasnisz fotke,
> to czy ogladajac ja na monitorze znow nie bedziesz mial wrazenia, ze
> teraz widac na niej
> i monitor i okno porownywalnie jasno ... tak jak widac w rzeczywistosci ?
Dokładnie tak było. Do takiej sytuacji doprowadziłem po ekstremalnych
korektach nie osiągalnych w zwykłym przetwarzaniu RAW w ARW.
>>> No ale patrzac na szachownice Adelsona ... czy to takie dziwne, ze
>>> monitor wydaje sie tak samo jasny jak niebo ?
>> Sęk w tym, że po niebie nie latała żadna szachownica. Było błękitne.
>
> szachownica pokazuje, ze oko/mozg potrafi sie bardzo pomylic w ocenie
> jasnosci, jesli tylko obiekty nie sasiaduja ze soba.
A niebo z czym sąsiadowało? Czy sądzisz, że jeśli z tej szachownicy
wyodrębnić dwa pola i regulować jasność jednego z nich wyrównamy ją z
drugim polem, to ponieważ pola pochodzą z szachownicy Adelsona, to nie
ma szans by po takim wyrównaniu jasności miały ją identyczną? :-D :-D
--
Pozdrawiam,
Marek
-
239. Data: 2019-04-22 22:57:13
Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
Od: "J.F." <j...@p...onet.pl>
Dnia Mon, 22 Apr 2019 15:38:51 +0200, Marek S napisał(a):
> W dniu 2019-04-17 o 12:03, J.F. pisze:
>> Jest mozliwosc, ze jak to otwierasz w swoich programach, to to co
>> zapisal IE jest ignorowane.
>> On sam siebie zreszta tez jakos ignoruje.
>
> Kłopot wynika z tego, że nie rozumiesz czym jest obróbka plików RAW
> praktycznie w jakimkolwiek sofcie. Gdy ruszasz suwakami, coś tam
> zmieniasz, to struktura RAW nie zmienia się ani odrobinę. Koniec kropka.
Alez ja to rozumiem. Zreszta od poczatku pisalem, ze ten ARW sie jakos
malo zmienil.
Co nie znaczy, ze kiedys nie nie pojawi program, ktory to umozliwi.
Tylko po co.
Ale wracajac do IE - otwieram twoj plik, rozjasniam o 2EV (wiecej nie
pozwala), zapisuje ... po cos ten zapis jest, zreszta troche sie ten
plik zmienil.
Otwieram w IE ... jest ciemniejszy niz byl po rozjasnieniu.
>>>> Ja patrze na ten jeden jpg, ktory wyprodukowales
>>>> https://drive.google.com/file/d/1SfhAx__hj9I7eqti9h4
ZHqy_6Uyol8Vs/view?usp=sharing
>>>>
>>>> I to jest gorny rog tego kwadracika na szybie.
>>>> Ale chyba widze, ze rozdzielczosci sa inne ... moze przesunales o 1
>>>> piksel, a moze objawila sie stratnosc kompresji JPG - musialbys drugi
>>>> obraz umiescic przesuniety o wiekrotnosc 8.
>>
>>> No coś Ty! Zdjęcia są identyczne.
>>
>> Marku - ale na powyzszym - jakie masz wartosci dla pikseli
>> 494,275
>> 1491,275
>
> W obu (183, 183, 175).
Jestes pewien ? Bo ja widze
157, 156, 138
151, 149, 124
>I co z tego ma wynikać poza tym, że są identyczne, jak już napisałem?
Ty ten obrazek zrobiles.
Połączyles dwa takie same, a wartosc inna - taka ciekawostka :-)
>>> Zaraz będę wył. Na samym dole przedstawiam listing takowego z jakieś
>>> pierwszej z brzegu foty jaką znalazłem na swoim kompie. Ja to nazywam
>>> tekstem.
>>
>> Twoje programy zapisuja tekst.
>> A Imaging Edge zapisuje cos innego.
>
> Jak czytam tu:
> https://support.d-imaging.sony.co.jp/app/imagingedge
/en/instruction/5_3_save_adjustment.php
>
> jest to plik XML. To też tekst. Nawet jeśli trzyma w bazie danych te
> zmiany, to zawsze one są tekstem. To jest standard.
Ale to jest plik ustawien.
Zobacz tu
https://support.d-imaging.sony.co.jp/app/imagingedge
/en/instruction/5_1_save_as_raw.php
Zapewne masz racje - to zapisuje oryginalne dane plus w jakis sposob
zapamietane ustawienia - ale nie w postaci XML.
Chyba, ze skompresowany ten XML.
>>> Super, więc pewnie wstrzeliłeś się np. w osadzonego JPG lub zakodowane
>>> dane konfiguracyjne itd. Możliwości jest wiele.
>>
>> I co - myslisz, ze jesli 24MB z 25MB jest takie same, to to sa dane
>> konfiguracyjne ?
>
> ...plus osadzony JPG. A dane nie konfiguracujne lecz informacyjne -
> takie jak zastosowana przesłona, czas, koordynaty GPS i kupa innych.
> Choć być może w/w soft również tekstowe instrukcje zmian jakoś dołącza.
> Tego nie wiem i nie chcę wiedzieć.
Ja tam pierwsze co robie to pliki porownuje.
I widze co jest innego, a co takiego samego.
Choc dane sa binarne, wiec nie bardzo wiem czego dotycza.
>> Ale tu akurat nie mamy sie o co klocic - przyznaje, ze wiekszosc pliku
>> jest niezmieniona i to beda te dane pikseli.
>
> Więc w tej niezmienionej części powinieneś szukać zmian, których ... nie
> ma :-D
Ale po co mam tam szukac zmian, skoro wiem, ze ich nie ma ?
Ogladam sobie to, co jest inne :-)
>>>> Dlatego tez zapisalem sobie po prostej zmianie, i porownalem pliki.
>>> Skoro wystąpiła w plikach choćby najdrobniejsza różnica, to zrobiłeś
>>> to źle. Bo taka jest natura RAW - nie da się ingerować normalnym
>>> softem graficznym w jego strukturę.
>>
>> Ja tam mysle, ze jesli program ma opcje "zapisz jako ARW", to cos tam
>> jednak zapisuje.
>
> Ok, ale musiałbyś kościół wyznaniowy do tej teorii utworzyć. Ja z
> pewnością będę jedynie się uśmiechał przechodząc obok :-D
Ja tam mysle, ze jakby mial to samo zapisac, to albo by takiej
operacji nie bylo, albo by sie nazywala "Save a Copy".
Ale klocic sie nie ma o co - zapisuje plik, 99% bez zmian, 1%
zmieniony, 1% nowych danych
> Jedyne co tego typu programy zapisują, to listę zmian w postaci tekstu.
> Niezależnie czy będzie to w bazie danych, czy w pliku XMP/XML, czy
> dołączony RAW.
A tu nie ma tekstu.
>> Ale sie zgadzamy, ze wyglada na to, ze IE pikseli nie zmienil, tylko
>> jakies inne dane.
> Sprostowanie: ja to wiedziałem od samego początku, a Ty się zgodziłeś z
> tym w poście nr 567658760.
Ja to tez wiedzialem odkad porownalem pliki.
A ty nie chcesz przyjac do wiadomosci od ilus postow, ze tekstu tam
nie ma.
Ale ... jest jeszcze mozliwosc, ze jednak zmienil dane pikseli,
a poniewaz operacja byla prosta, a dane sa skompresowane, to zmienily
sie tylko slowniki do dekompresji.
>>> Tak jak pisałem: nie złożysz dwóch zdjęć ze sobą jeśli miały inną
>>> przesłonę. Cel składania nieistotny. Nie skupiajmy się na nim.
>>
>> Ale ja nie chce skladac - mnie wystarczy jedno zdjecie z jasnym
>> parapetem :-)
>
> To zaczekaj do 22 wieku :-D
> Póki co, na bazie niniejszego wątku, uważam, że to niewykonalne.
Alez wykonalne, wystarczy zmienic parametry "naswietlania", tylko ze
okno bedzie przepalone.
>> I to jest temat na ewentualny dalszy ciag dyskusji o fotografowaniu
>> rzeczywistosci - gdy oko uwaza ze monitor jest tak samo jasny jak okno,
>> a kamera bedzie bezlitosna.
>
> Sęk w tym, że ten temat miał być jedynym poruszanym w niniejszym wątku -
> patrz tytuł.
Ale o jest ciag dalszy
>> Tylko ... jak sfotografujesz swoim Sony monitor na tle nieba, a potem
>> odpowiednio rozjasnisz fotke,
>> to czy ogladajac ja na monitorze znow nie bedziesz mial wrazenia, ze
>> teraz widac na niej
>> i monitor i okno porownywalnie jasno ... tak jak widac w rzeczywistosci ?
>
> Dokładnie tak było. Do takiej sytuacji doprowadziłem po ekstremalnych
> korektach nie osiągalnych w zwykłym przetwarzaniu RAW w ARW.
Zebysmy sie zrozumieli - fotografujesz okno, przetwarzasz obrazek,
wyswietlasz na monitorze.
Ustawiasz monitor na tle okna, podkrecasz jasnosc, i mowisz ze obraz
okna na monitorze jest tak samo jasny, jak okno.
Tymczasem wiemy, ze monitor ma max 400 cd/m^2, a niebo 7000.
Wiec sfotografuj ten monitor na tle okna, i moze jeszcze zmierz
swiatlomierzem i monitor i widok za oknem.
>>>> No ale patrzac na szachownice Adelsona ... czy to takie dziwne, ze
>>>> monitor wydaje sie tak samo jasny jak niebo ?
>>> Sęk w tym, że po niebie nie latała żadna szachownica. Było błękitne.
>>
>> szachownica pokazuje, ze oko/mozg potrafi sie bardzo pomylic w ocenie
>> jasnosci, jesli tylko obiekty nie sasiaduja ze soba.
>
> A niebo z czym sąsiadowało?
Z ramka monitora :-)
> Czy sądzisz, że jeśli z tej szachownicy
> wyodrębnić dwa pola i regulować jasność jednego z nich wyrównamy ją z
> drugim polem, to ponieważ pola pochodzą z szachownicy Adelsona, to nie
> ma szans by po takim wyrównaniu jasności miały ją identyczną? :-D :-D
W sensie, ze mamy na monitorze dwa prostokaty, rozdzielone np czarnym
obszarem ... no, dobre pytanie ...
J.
-
240. Data: 2019-04-23 12:24:18
Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
Od: "J.F." <j...@p...onet.pl>
Użytkownik "Marek S" napisał w wiadomości grup
dyskusyjnych:q9i94q$4sd$...@n...news.atman.pl...
W dniu 2019-04-18 o 11:45, J.F. pisze:
>> I masz rację. To odwrotność jasności:
>> https://drive.google.com/file/d/1BDAacCfa7vISUxoMnRA
O3hIqg-FixX1T/view?usp=sharing
>>> Innymi słowy, czarne zamienia się miejscami z białym, czego ja nie
>>> lubię.
>
>> Nawet nie o to mi chodzi, tylko o to, ze konwersja wartosci piksela
>> na jasnosc ... wydruku, bedzie calkiem inna niz na monitorze.
>Nikt nad takimi duperelami się nie zastanawia nawet. Problem wygląda
>na wyssany z palca i pretenduje do tematyki kółka filozoficznego dla
>zwolenników płaskiej Ziemi :-D
Czy on taki wyssany ... jesli jasnosc 10% oznacza 90% tuszu na
papierze, to wychodzi nam 10% bialego papieru i jasnosc 10%
maksymalnej.
Jaka wartosc piksela podac karcie graficznej, zeby to samo otrzymac na
monitorzez gamma 2.2 czy 2.4 ?
A moze faktycznie wyssany z palca, bo to nie ma znaczenia, bo oko i
tak przerobi po swojemu :-)
>>> Tam wybrałem kompresję tonalną. Nie rozjaśniałem żadnego z
>>> prezentowanych zdjęć, nawet w celach demonstracyjnych. A różnica
>>> względem rozjaśnienia polega na - jak również wiele razy
>>> wyjaśniałem - nie ruszaniu żadnego z handlerów.
>
>> Kiedys tam napisales, ze te kwadraciki w srodku krzywej to tez
>> handlery.
>Tak, zgadza się - o ile są. Na screenshocie narzędzi, który omawiamy
>są tylko dwa: na początku i na końcu. Wyłącznie to miałem na myśli.
>Handlerów (uchwytów) może być sporo.
Ale na tej krzywej na obrazku byly juz 4.
Ok, moze i ich nie ruszales - wybrales jakis inny suwaczek i tak
wyszlo.
>>> Natomiast Krzywa kompresji staje się dość złożona.
>> Jesli odpowiada takiej, jak pokazywales na jednym z widokow, to IMO
>> jest calkiem trywialna.
>Owszem, ta, co pokazałem jest trywialna i nie używana przeze mnie w
>niniejszym wątku i prawie nigdy w pozostałych sytuacjach.
No to juz nic nie rozumiem.
Pisales, ze swoja "jasna wersje" zrobiles ... przy pomocy innych
narzedzi, ale z grubsza biorac powinny one zrobic taka krzywa, jak na
rysunku ...
>> Nie. Patrze tylko JPG wygenerowany przez Ciebie.
>
>> Ty w jednej jego polowie umiesciles swoj obraz z ARW, a po drugiej
>> to co otwarles z "przetworzonego" przez mnie ARW.
>
>> Mowisz, ze oba ARW sa takie same, a na tym JPG ten sam piksel z obu
>> obrazow jest inny.
>Zapewne mówisz o:
>https://drive.google.com/file/d/1SfhAx__hj9I7eqti9h
4ZHqy_6Uyol8Vs/view?usp=sharing
Dokladnie.
>Jeśli tak, to niczego nie zrozumiałeś. ARW są takie same __BO NIE DA
>SIĘ W ŻADEN SPOSÓB__ programami graficznymi zmienić struktury RAW.
>Powyższy test wykazał to. Mimo to twierdziłeś, że zmieniłeś strukturę
>ARW za pomocą programu Sony Image coś tam. Przytoczyłem Ci więc
>zdanie z instrukcji obsługi tego programu, gdzie wyraźnie napisano,
>że niczego takiego on nie potrafi, jak sugerowałeś.
Plik jest jednak inny.
Ale przyznaje, ze tylko ~2% sa inne, a dane pikseli ... wygladaja
jakby tak samo, zakladajac, ze te 99% pliku to dane pikseli ..
>A to, że gdzieś w dyskusji wygenerowałem jakiś JPG kompletnie niczego
>nie oznacza. JPG to tylko jedna z wielu interpretacji ARW, których
>może być nieskończenie wiele.
Zakladam, ze dochowales pewnej starannosci i obydwa konwertowales tak
samo.
A chyba wrecz najpierw zrobiles ten polaczony obrazek, a potem go
zapisales jako JPG ... wiec czemu piksele po obu stronach sa inne ?
>Jeszcze raz powtórzę: jeśli masz dwie kopie jakiegokolwiek RAW, to
>przy tej samej konwersji do bezstratnego formatu (TIFF, PNG itp)
>otrzymasz identyczne obrazy co do piksela. I tylko to pokazałem na
>tym podwójnym zdjęciu Twojego i mojego RAW, gdzie byłeś przekonany,
>że Twój RAW musi zawierać naniesione przez Ciebie zmiany.
>Udowodniłem, że nie zawierał. To było moim jedynym celem.
Tak ci sie tylko wydaje.
Otwieram twoj ARW, otwieram swoj ARW ... moj jest jasniejszy.
Exportuje dane do tiff ... pliki sa inne.
Tyle tylko, ze otwieram go programem Imaging Egde.
Przyznaje, ze on zapewne danych nie zmienil, tylko gdzies w tym pliku
sobie zapisal jakie korekcje/komendy wprowadzilem.
Ale nie tekstowo i nie jako XML.
Teraz tylko pytanie - twoje programy ignoruja te zapisy, czy pomyliles
pliki.
A moze nie pomyliles, skoro jednak ten polaczony JPG jest inny :-)
P.S. teraz dopiero widze ... strasznie krzywa ta rama okna na ARW.
Dobra robote robi aparat i programy przy konwersji ...
>>>> to jakby to sie nazywalo ?
>>> Tak samo: zmniejszasz liczbę tonów w obrazie.
>
>> Ja bym rzekl, ze rozpietosc tonalna jednych partii kompresuje,
>> zeby rozpietosc innych partii rozszerzyc.
>Ok, to w rozmowie z grafikami używaj terminu "używamy
>kompreso-ekspandera kontrastowo jasnościowego". Będzie to wierniejsze
>określenie i z pewnością staniesz się wtedy znany w środowisku :-D
Ja bym powiedzial "dokonalem korekty krzywej jasnosci".
Ale moze macie swoj zargon, i wiecie o co chodzi.
>> Co do ilosci tonow - przy 8-bit cz-b (szarych) obrazkach mialbys
>> troche racji - oryginal zawieral powiedzmy 256 poziomow szarosci,
>> po takiej operacji niektore z nich znikna.
>> Ale kto stoi i liczy ile poziomow szarosci jest obecnych w obrazie
>> ?
>> Raczej patrzy czy czernie nie są "płowe", a biele szare. A srajnych
>> punktow jak piszesz - nie ruszasz.
>Więc bez sensu jest takie filozofowanie, jak sam teraz postrzegasz.
Bez sensu to jest dla mnie okreslenie "zmniejszasz liczbę tonów w
obrazie", w tym przypadku.
Ale ja sie nie znam na waszym zargonie.
Zreszta jak to nazywaja autorzy ? Curve adjustment ?
https://helpx.adobe.com/photoshop/using/curves-adjus
tment.html
A gdzie znajde te "kompresje tonalna" w dokumentacji ?
>> Bylo od razu pokazac te krzywa, to bys nie musial 19 razy
>> zaprzeczac.
>Jak powyżej wspomniałem tu i w innej gałązce - nie mam tej krzywej
>gdyż ACR tak nie działa. Tzn też tak może działać ale ja nie
>wykorzystałem operacji na krzywej w sposób jawny. Nie wiem jaki
>kształt ACR wybrał sobie jako skutek moich zabiegów.Nie sądziłem, że
>o krzywej będziemy gadać skoro nie o tym miał być wątek.
No coz - watek jest niejako o zmianach jasnosci.
Jak to odbiera oko, jak to odbiera matryca, co z tym robi monitor ...
i czemu to jest inne :-)
>>> Przy oknie ta krzywa była zupełnie inna ale zasada podobna.
>>> Krzywa, której użyłem miała 4 węzły.
>
>> A moja 3, choc w co tu mowic o wezlach, skoro to jest krzywa
>> nieokreslonego rodzaju.
>Bo każda krzywa Beziera (chyba tak możemy ją nazwać)
Nie wiem czy mozemy ... a wiesz, ze to krzywa Beziera ?
> bazuje na węzłach i stycznych. Miej więcej tak działa funkcjonalność
> manipulacji tym wykresem.
A tu stycznych nie ma
>>>> Moze i swiatlomierz wykrylby 100% roznice jasnosci, ale moje oko
>>>> nie.
>>>> Przynajmniej w jasnym otoczeniu nie.
>>> Pełna zgoda. W końcu 1ev różnicy to dla oka prawie nic.
>> O, nie tak znowu nic - w ciemni pewnie bym zobaczyl roznice, jakbym
>> pol ekranu mial w jasnosci 0, a pol w jasnosci 1.
>No, ok. Niech będzie skoro mamy być purystami. Ja miałem na myśli
>normalne warunki. Idziesz przeciętną ulicą przeciętnego dnia gdzie
>oświetlenie jest przeciętne skoro dwa pierwsze warunki też takie są.
>Robisz o 1ev jaśniej i widzisz trochę jaśniej. Gdybyś nie skupił się
>na fakcie wystąpienia tejże zmiany, to pewnie byś jej nawet nie
>zauważył.
Nie bardzo rozumiem.
Idziemy na ulice, robimy dwa zdjecia rozniace sie ekspozycja o 1ev ?
Po czym pokazujesz mi jedno i pytasz czy widze cos dziwnego ?
Oczywiscie nic ... choc to akurat zalezy od konwersji - sciemnilem
sobie twoj RAW o 1 ev ... rzuca sie w oczy, ze ciemno jakos za oknem
:-)
Jakbys mi pokazal jedno i drugie w jakims odstepie czasowym - pewnie
tez bym nie zauwazyl.
Ale obok siebie na monitorze czy papierze ... widac roznice, ale
niekoniecznie da sie powiedziec, ktore "prawidlowe".
>Ja natomiast takie rzeczy obserwuję prawie na co dzień. RObię fotę
>jakiegoś pomieszczenia pod nieco innym kątem - światłomierz pokazuje
>1ev różnicy. A ja patrzę w ten i poprzedni punkt i pytam: seriously??
>Ale mimo to posłusznie koryguję czas naświetlania... A to dlatego, ze
>1ev dla oka to nic, ale na w aplikacji graficznej robi to kolosalną
>różnicę... bo aparat widzi inaczej. Dlatego też ludzie składają HDRy
>dla obrazów różniących się zaledwie 1-2ev a nie np. 7ev. I do tego
>m.in. tytuł wątku nawiązuje.
No coz, jak dasz jasniej i przepalisz jasne partie, to oczywiscie
bedzie kolosalna roznica.
Ale jak zrobisz ciemniej, a masz 14-bit matryce ... i potem rozjasnisz
w programie o ten 1ev ... Twoje fachowe oko pewnie zaraz zauwazy, ze w
czerniach cos szumi, ale ja to nie wiem czy bym zwrocil uwage.
>> A kto wie, co by pokazal swiatlomierz, jakby tak zmierzyc ... tylko
>> to juz chyba nie fotograficzny musialby byc.
>Ja wiem na pamięć, co pokazałby światłomierz. Nie wiem co masz na
>myśli: fotograficzny czy zwykły? Fotograficzny potrafi dużo więcej.
>To jedyna różnica.
Fotograficzny ma swoj zakres pomiarowy uzywany w fotografii,
i niekoniecznie sie w nim miesci monitor wyswietlajacy prostokat
jasnosci 1 oraz 0 (z 256).
To jakis fotopowielacz pewnie musialby byc ... i wtedy moglby
zmierzyc, ze ten jeden stopnien jasnosci to hoho- pare ev dzieli.
>A propos... przypomniałem sobie dyskusję o jasnościach sceny. Przed
>chwilą wykonałem podobne zdjęcie do omawianego kiedyś tam:
>https://drive.google.com/file/d/1R8-cjg98tXk_fthiIe
_nWsTzKvnZbpG5/view?usp=sharing
>Pomierzyłem jasności w luxach swoim światłomierzem. Tryb kierunkowy
>wybrałem. Wyszły mi wyniki zupełnie inne niż wyczytałeś gdzieś tam.
>Ściana ma 110lux, krzaki 1600 lux a niebo 4800 lux.
Lux to nie cd/m^2, ale te 4800 wyglada na podobnego rzedu co 7 tys.
Twoj swiatlomierz dokladnie luxy mierzy, czy tylko wtedy, jesli go
skierujesz na szarą kartę ?
Ale nie robmy tu klotni - Ty go skieruj na monitor wyswietlajacy bialy
kolor ... i napisz co on zmierzyl.
Bedzie 4000, 400, czy np 200 ?
To tak w kwestii czy rozjasniony monitor moze byc rownie jasny jak
niebo :-)
No i oczywiscie na oko to sciana byla calkiem jasna ?
Tak to z okiem jest - 44x, ~5ev roznicy, a widzi jedno i drugie jasno.
Ale powiesilem sobie kalendarz w oknie ... literki przy krawedzi na
tle nieba jakies gorzej czytelne.
A w dodatku mam go na szybie, wiec jest chyba lepiej oswietlony niz te
110 lux, bo z boku prostopadle kawalki scian ..
>> Mi tylko chodzi o to, ze powinienes dopatrzec sie czegos na
>> parapecie ...
>> no dobra - byloby dopatrywanie sie w bardzo ciemnych partiach, a na
>> oko to pewnie widziales go calkiem jasno.
>I o to właśnie chodziło - całkiem jasno. A w 14-bitowej matrycy
>musiałbym HDRa składać by podobnie widzieć.
Bez HDR tez sporo sie dalo wydobyc.
Pozostaje wsadzic bilet do szpary :-)
>>> To dlatego, że masz paradoksalnie kiepski monitor.
>> Ale za to typowy :-)
>6 bitów w lapku, to już nie jest typowy :-)
Jest najwyrazniej 8 bitow, ale skrajne ciemne juz czarne.
>I jako ciekawostka: aby na typowych monitorach, typowi oglądacze nie
>powiedzieli na zdjęcie: ble, trzeba je mocno zdewastować:
>1. Przekolorować.
>2. Jeśli dominują ciemne kolory: zredukować dynamikę do 7-bitów w
>kierunku jasnych.
No widzisz - zrobilem :-)
>3. Przekontrastować.
>Wtedy procent zadowolonych do niezadowolonych mocno wzrasta. I co
>jeszcze ciekawsze, Ci niezadowoleni czasem krytykują tak zniszczone
>zdjęcia jako ... zbyt dobre. To cytat.
Bo takie jakies ... sztuczne :-)
Albo maja lepsze monitory. I przyzwyczajeni sa do swoich fotek, bez
ulepszen :-)
>>> Bo nie ma detektora śniegu. Czym śnieg różniłby się od szarej
>>> ściany?
>
>> To po co mu te tysiace scen do dopasowania, skoro ich pewnie tez
>> moze wykryc ?
>M.in. po to by balans bieli umieć wykryć.
No, balans bieli to jest dla mnie tajemnica.
Jak wyszukac w obrazie to, co powinno byc biale ... a jak tam nic
bialego nie ma ?
>Po to by umieć optymalną dla oka jasność ustawić i pewnie jeszcze
>coś. To nie tylko matematyka ale i "doświadczenia" takie jak my
>zbieramy. W końcu nie widzimy na pomarańczowo w oświetleniu żarowym.
>Aparat jakoś musi się dowiedzieć, że jest w pokoju, w którym żarówki
>są.
No i widzisz - w tym pierwszym Nikonie FA przeanalizowano tysiace
zdjec, po to aby napisac jeden algorytm dla 5 fotodiod ...
>>> Raz jeszcze: popatrz na śnieg przez rurkę a potem na ścianę.
>>> Spróbuj odróżnić. Zrb to o różnych porach dnia i nocy.
>
>> Jak sie ma tysiace scen, to mozna miec kilka ze sniegiem o roznych
>> godzinach :-)
>Powodzenia.
No to do d* z tymi scenami :-)
A poderzewam, ze aparat nie ma tysiecy, predzej kilkadziesiat.
>>> Aparat patrząc na śnieg obniża czułość tak, aby wyszła ok właśnie
>>> 18% szarości. Dlatego staje się on szary.
>
>> O ile pamietam, to te karte wymyslono, bo skora bialego czlowieka
>> odbija 18%, wiec do niej dobierano oswietlenie.
>Możliwe, nie jest to istotne. W każdym razie posługując się tą kartą
>wykonasz zdjęcie z bardzo dobrze dobraną ekspozycją, zarówno na
>śniegu jak i ciemnoszarej ściany. Znika problem "szarego śniegu".
>> Ale chyba cos zle pamietam
>> https://en.wikipedia.org/wiki/Zone_System
>Nie będę komentował, bo nie wiem jak to się ma do współczesności.
Obawiam sie, ze nadal sie tego trzymaja ... nawet, jesli to juz troche
przestarzale dla wspolczesnych aparatow.
Bo wytlumacz tu profesjonalistom, ze masz dwie szare karty, analogową
i cyfrową :-)
>> Tak sie domyslam, ze jak uruchomisz program i wczytasz tego ARW bez
>> ruszania czegokolwiek, to parapet bedzie czarny.
>
>> No chyba, ze program pamieta ostatnie parametry konwersji ... a nie
>> ma jakiegos przycisku "reset to default" ?
>Hę?? Nie wiem o czym piszesz. Ja robię zdjęcia w trybie manualnym. Z
>automatyki korzystam, gdy nie można inaczej.
Ale jak mowie o ustawieniu programow.
Ustawiasz ekspozycje manulnie, aparat robi zdjecie (a tu jestem mocno
ciekaw, czy sie jednak jakas automatyka nie wlacza, przynajmniej
czesciowo),
a potem sobie ogladasz RAW ... no i jakies parametry do konwersji
przeciez sa przyjete, programista ustawil.
J.