eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plGrupypl.rec.foto.cyfrowa › Czy istnieje możliwość fotografowania rzeczywistości?
Ilość wypowiedzi w tym wątku: 287

  • 231. Data: 2019-04-18 11:45:01
    Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
    Od: "J.F." <j...@p...onet.pl>

    Użytkownik "Marek S" napisał w wiadomości grup
    dyskusyjnych:q989sp$4dq$...@n...news.atman.pl...
    W dniu 2019-04-17 o 15:15, J.F. pisze:
    >>> Photoshop tak ma. Jeśli się komuś nie podoba, to może przestawić
    >>> na % krycia pigmentem/tuszem.
    >
    >> Tak mozna ?
    >> Bo to niekoniecznie jest to samo, co jasnosc.

    >I masz rację. To odwrotność jasności:
    >https://drive.google.com/file/d/1BDAacCfa7vISUxoMnR
    AO3hIqg-FixX1T/view?usp=sharing

    >Innymi słowy, czarne zamienia się miejscami z białym, czego ja nie
    >lubię.

    Nawet nie o to mi chodzi, tylko o to, ze konwersja wartosci piksela na
    jasnosc ... wydruku, bedzie calkiem inna niz na monitorze.

    No ale moze potrafi to odpowiednio skorygowac ... ale skoro jest, to
    widac komus bylo to potrzebne :-)

    >>> Znów nie wiem o czym mówisz. Chodzi o pierwszy z 3 wykresów jakie
    >>> przytoczyłem? Tam losowo wybrałem 63.
    >
    >> Raczej o te prosta konwersji, ktora pokazywales pare dni wczesniej.

    >... i której nigdy do niczego nie użyłem? Już kojarzę.

    To bylo nie pokazywac :-)

    > Gdzie bylo 0>63, 128->128, 255-> 192 i nazywales rozjasnianiem.

    >Tak, bo 0->63 przeszło. Drugi koniec powinien być w górnym, prawym
    >rogu. O tym też pisałem. Wtedy jest typowe rozjaśnianie.

    Wypłowienie :-P

    >>>> A w pliku JPG mamy najciemniejszy 6.
    >
    >>> Nie nadążam. W JPG mamy 6 najciemniejszy... ale w jakim JPG i jaką
    >>> prostą potraktowanym i przez kogo.
    >
    >> W JPG, w ktorym wyprodukowales "rozjasniony obraz", czy moze
    >> "skompresowana dynamike", bo ja tez sie juz gubie to jak nazywasz i
    >> dlaczego akurat tak.
    >> Tam, gdzie ladnie widac i parapet i okno.

    >Tam wybrałem kompresję tonalną. Nie rozjaśniałem żadnego z
    >prezentowanych zdjęć, nawet w celach demonstracyjnych. A różnica
    >względem rozjaśnienia polega na - jak również wiele razy
    >wyjaśniałem - nie ruszaniu żadnego z handlerów.

    Kiedys tam napisales, ze te kwadraciki w srodku krzywej to tez
    handlery.

    >Natomiast Krzywa kompresji staje się dość złożona.

    Jesli odpowiada takiej, jak pokazywales na jednym z widokow, to IMO
    jest calkiem trywialna.

    >>> Nie wiem co robiłeś z tym JPG, że takie wartości otrzymałeś.
    >> To nie ja, to Ty.

    >Ok, po przeczytaniu powyższego rozumiem. Ok... więc sytuację mamy
    >następującą:

    >1. Mocno przetworzyłem jakiś RAW i wygenerowałem JPG.
    >2. Ty otrzymałeś RAW, przetworzyłeś po swojemu. Otwarcie, to też
    >przetworzenie.
    >3. Mierzysz jakiś punkt w obrazie jaki otrzymałeś i porównujesz z
    >moim zdjęciem.
    >4. Otrzymujesz różne wyniki ... i dziwisz się temu?

    Nie. Patrze tylko JPG wygenerowany przez Ciebie.

    Ty w jednej jego polowie umiesciles swoj obraz z ARW, a po drugiej to
    co otwarles z "przetworzonego" przez mnie ARW.

    Mowisz, ze oba ARW sa takie same, a na tym JPG ten sam piksel z obu
    obrazow jest inny.

    >> Kompresja, po ktorej minimalna jasnosc jest 6 a maksymalna pewnie
    >> bliska 255 ?
    >> (w 8 bit JPG)
    >> Dziwna troche ta kompresja :-)

    >Owszem, bardzo dziwna: mocno nieliniowa z zachowaniem krańcowych
    >wartości.

    No wlasnie - skoro koncowe wartosci zachowane, to czy aby na pewno
    kompresja.

    >>> Wcale nie! To Ty taki wariant korekcji uwielbiasz :-D Ja tylko w
    >>> bardzo nielicznych przypadkach postąpiłbym w ten sposób.
    >
    >> I to jest jest nieliczny przypadek wlasnie ?

    >Absolutnie nie!!! Po raz 18ty zaprzeczam: nie użyłem tam żadnej
    >prostej konwersji.

    Ja tylko o tym, czy to nie jest taki przypadek, gdzie mozna uzyc
    takiej konwersji.
    I przypominam cel - chcemy zobaczyc co sie kryje w tych ciemnych
    partiach.
    Reszta mnie w zasadzie nie interesuje.

    Owszem - szara breja nam tego nie ulatwi.

    >> I czemu taka krzywa nazywac kompresji, a nie ekspansji, skoro jej
    >> celem jest "wzmocnienie" (ekspancja) ciemnych obszarow, a kompresja
    >> jasnych tylko skutkiem ubocznym.
    >
    >> A jakby chcial odwrotna krzywa - kompresuje ciemne partie, zeby
    >> miec wiekszy kontrast w jasnych partiach, bo tam sa ciekawe detale,
    >> niestety malo rozniace sie jasnoscia,

    >Tak postępuję ja. Jeśli postąpiłbyś odwrotnie, to musiałbyś
    >spłaszczyć dynamikę ciemnych obszarów.

    >> to jakby to sie nazywalo ?
    >Tak samo: zmniejszasz liczbę tonów w obrazie.

    Ja bym rzekl, ze rozpietosc tonalna jednych partii kompresuje, zeby
    rozpietosc innych partii rozszerzyc.

    Co do ilosci tonow - przy 8-bit cz-b (szarych) obrazkach mialbys
    troche racji - oryginal zawieral powiedzmy 256 poziomow szarosci,
    po takiej operacji niektore z nich znikna.
    Ale kto stoi i liczy ile poziomow szarosci jest obecnych w obrazie ?
    Raczej patrzy czy czernie nie są "płowe", a biele szare. A srajnych
    punktow jak piszesz - nie ruszasz.

    Juz przy kolorowych obrazkach 3*8 bit sprawa sie bardziej komplikuje,
    ale jak masz obraz 3*14 bit i ogladasz na monitorze 8 bit, to gdzie tu
    jakies zmniejszenie liczby tonow ...

    >> Zarzut rozumiem, tylko ze dla demonstracji prawidlowej metody
    >> przyslales mi wykres z prosta, ktora 0 zamieniala w 63.
    >Po raz 19ty zaprzeczam temu.

    Ze wyslales, czy ze nazwales to prawidlowa metoda ?
    Bylo od razu pokazac te krzywa, to bys nie musial 19 razy zaprzeczac.

    >> Poza tym ja wcale nie dodawalem 128, tylko jak sie okazuje
    >> zastosowalem krzywa konwersji bardzo podobna do twojej.

    >Przy oknie ta krzywa była zupełnie inna ale zasada podobna. Krzywa,
    >której użyłem miała 4 węzły.

    A moja 3, choc w co tu mowic o wezlach, skoro to jest krzywa
    nieokreslonego rodzaju.

    Przy oknie moglo byc istotnie inaczej, bo jak pisalem - tutaj
    rozjasnilem te czernie.

    >> Moze i swiatlomierz wykrylby 100% roznice jasnosci, ale moje oko
    >> nie.
    >> Przynajmniej w jasnym otoczeniu nie.
    >Pełna zgoda. W końcu 1ev różnicy to dla oka prawie nic.

    O, nie tak znowu nic - w ciemni pewnie bym zobaczyl roznice, jakbym
    pol ekranu mial w jasnosci 0, a pol w jasnosci 1.
    A kto wie, co by pokazal swiatlomierz, jakby tak zmierzyc ... tylko to
    juz chyba nie fotograficzny musialby byc.

    ale w normalnym otoczeniu, to niestety - gdzies ponizej jasnosci 20 to
    juz "czarno widze".

    >> Ale ... jesli sie tak chwalisz, ze (nie calkiem) liniowy gradient
    >> jest u Ciebie na monitorze doskonale widoczny, i widac 256 paskow
    >> ...

    >Jak wyjaśniłem - nie analizowałem go uważnie. W wylosowanych
    >fragmentach było widać równe stopniowanie.

    Mi tylko chodzi o to, ze powinienes dopatrzec sie czegos na parapecie
    ...
    no dobra - byloby dopatrywanie sie w bardzo ciemnych partiach, a na
    oko to pewnie widziales go calkiem jasno.

    >>>> -skrajny lewy byl nie 0, tylko troche wyzej, chcialem jasniej,
    >>>> godziłem sie na płowe.
    >
    >>> .. i tym samym spowodowałeś, że dużo mniej detali było widać.
    >
    >> Smiem twierdzic, ze u mnie wiecej.

    >To dlatego, że masz paradoksalnie kiepski monitor.

    Ale za to typowy :-)

    > Skoro technicznie (zliczając) mniej stopni szarości (skutek
    > rozjaśniania) wyświetlonych jaśniej dało więcej widocznych stopni
    > szarości - to znaczy, że charakterystyka świecenia pikseli jest u
    > Ciebie prawie randomowa.

    Nie - po prostu te o niskiej wartosci sa u mnie "czarne".

    >>>> -drugi lewy podciagnalem bardzo wysoko, gdzies na 80% -
    >>>> interesowaly mnie ciemne partie, a nie jasne.
    >
    >>> Jaki drugi lewy? Lewy handler jest tylko jeden :-D
    >
    >> Drugi od lewej. U Ciebie gdzies 6% -> 25%

    >Akurat jak u mnie było, to nie wiem. W ACR to się działo. Tam nie
    >widać handlerów i krzywej.

    Rozumiem. Czyli co on zrobil to nie bardzo wiadomo ... ale domyslamy
    sie, ze mniej wiecej to, co zademonstrowales na krzywej.

    >> No ale dlaczego aparat z tysiacami scen nie ma kilku na sniegu i
    >> nie dobiera sobie poprawnej sceny ?

    >Bo nie ma detektora śniegu. Czym śnieg różniłby się od szarej ściany?

    To po co mu te tysiace scen do dopasowania, skoro ich pewnie tez moze
    wykryc ?

    >Raz jeszcze: popatrz na śnieg przez rurkę a potem na ścianę. Spróbuj
    >odróżnić. Zrb to o różnych porach dnia i nocy.

    Jak sie ma tysiace scen, to mozna miec kilka ze sniegiem o roznych
    godzinach :-)

    No ale jasny snieg czy biala sciana ... co za roznica ?
    Ma rozpoznac, ze to ma byc naprawde biale, i nas nie badzo
    interesuje - osoby maja byc prawidlowo naswietlone.
    Tak jak te twoje packshoty na bialym tle.


    >>> Zrób sobie prosty test. Popatrz sobie na szarą ścianę przez rurkę
    >>> po ręczniku papierowym. Oświetl ją z rosnącą powoli jasnością ze
    >>> źródła światła. Zatrzymaj narastanie jasności, gdy uznasz, że
    >>> ściana jaką widzisz jest właśnie tak jasna a inne warianty są
    >>> niewłaściwe.
    >
    >> Nie bardzo rozumiem - mam uznac, ze jest tak jasna jak ... co ?

    >Brawo! Słuszne pytanie! "Jasna jak co?". Skoro Ty tego nie wiesz, to
    >urządzenie ma wiedzieć??? Jakbyś to oprogramował zatem?

    >Nie da się!. Dlatego wymyślono syntetyczny parametr 18% szarości:
    >https://en.wikipedia.org/wiki/Gray_card

    >Aparat patrząc na śnieg obniża czułość tak, aby wyszła ok właśnie 18%
    >szarości. Dlatego staje się on szary.

    O ile pamietam, to te karte wymyslono, bo skora bialego czlowieka
    odbija 18%, wiec do niej dobierano oswietlenie.

    Ale chyba cos zle pamietam
    https://en.wikipedia.org/wiki/Zone_System

    lepiej opisane po szkopsku
    https://de.wikipedia.org/wiki/Zonensystem
    https://de.wikipedia.org/wiki/Graukarte

    Jasna skora to strefa 6, odbija 25% i na zdjeciu ma byc ... jasna, ale
    nie snieznobiala.
    A 18% - srodek zakresu tonalnego ... srebrowej fotografii.

    Co do aparatow - to chyba tylko stare "idiotenkamery" patrzyly na
    calosc, no i jeszcze starsze aparaty z wbudowanym swiatlomierzem,
    ktore w swoich czasach nie mogly byc "idioten" :-)

    Teraz, zeby uniknac takich cudow masz wybor pomiaru - sredni,
    centralny, sredni-wazony, no i te sceny.

    Lustrzanki to osobny klopot, bo tam w zasadzie matryca nie widzi przed
    zdjeciem, wiec trzeba kombinowac.

    >>> Zatem, która ekspozycja będzie Twoim zdaniem tą właściwą? I teraz
    >>> przełóż to na logikę aparatu cyfrowego i zastanów się skąd są
    >>> problemy ze śniegiem.
    >> A te tysiace scen to do czego sluza ?

    >Np. do wykrycia, że to zdjęcie jest portretowe i dla jasnej cery
    >trzeba ABW odpowiednio podrasować.

    No to niech wykryje, ze to zdjecie na sniegu, na tle jasnej sciany czy
    na tle jasnego nieba i niech rasuje.
    Skoro zaplaciles za aparat z tysiacem scen, to wymagasz :-)

    Albo po prostu jako profesjonalista znajacy swoj sprzet wiesz, ze tu
    trzeba skorygowac naswietlenie, bo aparat zle to zrobi.

    >> I parapet wychodzi tak czarny, ze nic nie widac :-)
    >iiiii?

    Tak sie domyslam, ze jak uruchomisz program i wczytasz tego ARW bez
    ruszania czegokolwiek, to parapet bedzie czarny.

    No chyba, ze program pamieta ostatnie parametry konwersji ... a nie ma
    jakiegos przycisku "reset to default" ?

    J.



  • 232. Data: 2019-04-18 13:15:22
    Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
    Od: Starzec z Gór <d...@v...pl>

    W dniu czwartek, 18 kwietnia 2019 11:46:43 UTC+2 użytkownik J.F. napisał:

    > O ile pamietam, to te karte wymyslono, bo skora bialego czlowieka
    > odbija 18%, wiec do niej dobierano oswietlenie.
    >
    > Ale chyba cos zle pamietam
    > https://en.wikipedia.org/wiki/Zone_System
    >
    > lepiej opisane po szkopsku
    > https://de.wikipedia.org/wiki/Zonensystem
    > https://de.wikipedia.org/wiki/Graukarte
    >
    > Jasna skora to strefa 6, odbija 25% i na zdjeciu ma byc ... jasna, ale
    > nie snieznobiala.
    > A 18% - srodek zakresu tonalnego ... srebrowej fotografii.

    Zasadniczo tak. Przy kontrastowych motywach, korzystając z pomiaru światła odbitego
    od szarej karty, otrzymujemy negatyw, gdzie wykorzystujemy najszerszy zakres krzywej
    czułości. Mamy wtedy zarejestrowane detale od głębokich cieni do wysokich świateł.
    >
    > Co do aparatow - to chyba tylko stare "idiotenkamery" patrzyly na
    > calosc, no i jeszcze starsze aparaty z wbudowanym swiatlomierzem,
    > ktore w swoich czasach nie mogly byc "idioten" :-)
    >
    > Teraz, zeby uniknac takich cudow masz wybor pomiaru - sredni,
    > centralny, sredni-wazony, no i te sceny.
    >
    > Lustrzanki to osobny klopot, bo tam w zasadzie matryca nie widzi przed
    > zdjeciem, wiec trzeba kombinowac.

    Dlatego w lustrzankach zastosowano pomiar matrycowy, i wielopunktowy. Pierwsza
    matryca - Nikon FA 1983 rok. I w zasadzie na dziś dzień stosują go wszystkie aparaty
    cyfrowe - przy czym pomiar jest dokonywany albo na matrycy właściwej, zdjęciowej,
    albo w przypadku lustrzanek na osobnym elemencie wbudowanym w tor optyczny.

    Pozdrawiam Marcin


  • 233. Data: 2019-04-19 11:54:22
    Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
    Od: "J.F." <j...@p...onet.pl>

    Użytkownik "Starzec z Gór" napisał w wiadomości grup
    dyskusyjnych:396aa293-ec7b-489b-b087-e25fc30b930c@go
    oglegroups.com...
    W dniu czwartek, 18 kwietnia 2019 11:46:43 UTC+2 użytkownik J.F.
    napisał:
    >> Lustrzanki to osobny klopot, bo tam w zasadzie matryca nie widzi
    >> przed
    >> zdjeciem, wiec trzeba kombinowac.

    >Dlatego w lustrzankach zastosowano pomiar matrycowy, i wielopunktowy.
    >Pierwsza matryca - Nikon FA 1983 rok. I w zasadzie na dziś dzień
    >stosują go wszystkie aparaty cyfrowe - przy >czym pomiar jest
    >dokonywany albo na matrycy właściwej, zdjęciowej, albo w przypadku
    >lustrzanek na osobnym elemencie wbudowanym w tor optyczny.

    Tylko, zebys nie wprowadzil mlodszych czytelnikow w blad z ta matryca
    https://en.wikipedia.org/wiki/Nikon_FA

    "AMP used a light meter with two segmented silicon photodiodes to
    divide the field of view into five segments: the center and the four
    outer quadrants.
    The readings of the various segments would be analyzed by a four-bit
    microchip computer (with a 524 kHz central processing unit (CPU) and 8
    KB of memory) programmed to look for exposure errors caused by
    unusually bright or dark luminance patches and automatically correct
    the exposure settings.
    Nippon Kogaku said that the program was written after the visual
    assessment of nearly 100,000 photographs.

    As the first generation of matrix metering, AMP was hardly foolproof.
    For instance, holding the FA vertically instead of horizontally might
    cause the meter to give different readings of the same scene. However,
    AMP was still demonstrably superior to the centerweighted type of
    light metering then in common use. AMP would give a good exposure
    90-95% of the time versus 85-90% for centerweighting. "

    No i tak troche przestalem rozumiec ... tych fodiod bylo naprawde 5, z
    czego 4 w jednej obudowie ?


    http://www.mir.com.my/rb/photography/hardwares/class
    ics/nikonfa/fatech/matrixflowchart.htm

    J.


  • 234. Data: 2019-04-19 12:35:38
    Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
    Od: Starzec z Gór <d...@v...pl>

    W dniu piątek, 19 kwietnia 2019 11:56:03 UTC+2 użytkownik J.F. napisał:
    > Użytkownik "Starzec z Gór" napisał w wiadomości grup
    > dyskusyjnych:396aa293-ec7b-489b-b087-e25fc30b930c@go
    oglegroups.com...
    > W dniu czwartek, 18 kwietnia 2019 11:46:43 UTC+2 użytkownik J.F.
    > napisał:
    > >> Lustrzanki to osobny klopot, bo tam w zasadzie matryca nie widzi
    > >> przed
    > >> zdjeciem, wiec trzeba kombinowac.
    >
    > >Dlatego w lustrzankach zastosowano pomiar matrycowy, i wielopunktowy.
    > >Pierwsza matryca - Nikon FA 1983 rok. I w zasadzie na dziś dzień
    > >stosują go wszystkie aparaty cyfrowe - przy >czym pomiar jest
    > >dokonywany albo na matrycy właściwej, zdjęciowej, albo w przypadku
    > >lustrzanek na osobnym elemencie wbudowanym w tor optyczny.
    >
    > Tylko, zebys nie wprowadzil mlodszych czytelnikow w blad z ta matryca
    > https://en.wikipedia.org/wiki/Nikon_FA

    Ale że co? Pomiar matrycowy może być też dokonany na matrycy zdjęciowej, czyż nie?
    Biorę sobie do ręki współczesną cyfrówkę, i mam do wyboru : pomiar integralny,
    centralno-ważony, punktowy i właśnie matrycowy. Co prawda najczęściej i tak mierzę
    centralno ważonym albo punktowym, ale to już moje nawyki.

    >
    > "AMP used a light meter with two segmented silicon photodiodes to
    > divide the field of view into five segments: the center and the four
    > outer quadrants.
    > The readings of the various segments would be analyzed by a four-bit
    > microchip computer (with a 524 kHz central processing unit (CPU) and 8
    > KB of memory) programmed to look for exposure errors caused by
    > unusually bright or dark luminance patches and automatically correct
    > the exposure settings.
    > Nippon Kogaku said that the program was written after the visual
    > assessment of nearly 100,000 photographs.
    >
    > As the first generation of matrix metering, AMP was hardly foolproof.
    > For instance, holding the FA vertically instead of horizontally might
    > cause the meter to give different readings of the same scene. However,
    > AMP was still demonstrably superior to the centerweighted type of
    > light metering then in common use. AMP would give a good exposure
    > 90-95% of the time versus 85-90% for centerweighting. "
    >
    > No i tak troche przestalem rozumiec ... tych fodiod bylo naprawde 5, z
    > czego 4 w jednej obudowie ?

    Fotodiody były dwie.Podzielone na sektory.

    >
    >
    > http://www.mir.com.my/rb/photography/hardwares/class
    ics/nikonfa/fatech/matrixflowchart.htm

    Przekombinowali.
    Pozdrawiam Marcin


  • 235. Data: 2019-04-19 18:05:12
    Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
    Od: "J.F." <j...@p...onet.pl>

    Użytkownik "Starzec z Gór" napisał w wiadomości grup
    dyskusyjnych:f40413d2-f4bb-415e-905c-749b96c227b4@go
    oglegroups.com...
    W dniu piątek, 19 kwietnia 2019 11:56:03 UTC+2 użytkownik J.F.
    napisał:
    >> >> Lustrzanki to osobny klopot, bo tam w zasadzie matryca nie widzi
    >> >> przed zdjeciem, wiec trzeba kombinowac.
    >
    >> >Dlatego w lustrzankach zastosowano pomiar matrycowy, i
    >> >wielopunktowy.
    >> >Pierwsza matryca - Nikon FA 1983 rok. I w zasadzie na dziś dzień
    >> >stosują go wszystkie aparaty cyfrowe - przy >czym pomiar jest
    >> >dokonywany albo na matrycy właściwej, zdjęciowej, albo w przypadku
    >> >lustrzanek na osobnym elemencie wbudowanym w tor optyczny.
    >
    >> Tylko, zebys nie wprowadzil mlodszych czytelnikow w blad z ta
    >> matryca
    >> https://en.wikipedia.org/wiki/Nikon_FA

    >Ale że co? Pomiar matrycowy może być też dokonany na matrycy
    >zdjęciowej, czyż nie?

    Moze, tylko tamten "pomiar matrycowy" korzystal z calkiem innej
    matrycy.

    Nawiasem mowiac - ten "sredniowazony" pomiar w Zenicie TTL, to byly
    dwa fotorezystory umieszczone w rogach pryzmatu pentagonalnego, ktore
    chyba na matowke patrzyly ... ale jak madrze brzmi :-)


    >> "AMP used a light meter with two segmented silicon photodiodes to
    >> divide the field of view into five segments: the center and the
    >> four
    >> outer quadrants.

    >> No i tak troche przestalem rozumiec ... tych fodiod bylo naprawde
    >> 5, z
    >> czego 4 w jednej obudowie ?

    >Fotodiody były dwie.Podzielone na sektory.

    Czyli de facto osobnych fotodiod (sektorow) ... ale w dwoch osobnych
    obudowach ?
    W jednej mierzaca centrum, a w drugiiej 4 sektory ?

    >> http://www.mir.com.my/rb/photography/hardwares/class
    ics/nikonfa/fatech/matrixflowchart.htm
    >Przekombinowali.

    Nikon, czy ci opisujacy jak to dzialalo ?

    J.


  • 236. Data: 2019-04-20 00:40:54
    Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
    Od: Starzec z Gór <d...@v...pl>

    W dniu piątek, 19 kwietnia 2019 18:06:53 UTC+2 użytkownik J.F. napisał:
    > Użytkownik "Starzec z Gór" napisał w wiadomości grup
    > dyskusyjnych:f40413d2-f4bb-415e-905c-749b96c227b4@go
    oglegroups.com...
    > W dniu piątek, 19 kwietnia 2019 11:56:03 UTC+2 użytkownik J.F.
    > napisał:
    > >> >> Lustrzanki to osobny klopot, bo tam w zasadzie matryca nie widzi
    > >> >> przed zdjeciem, wiec trzeba kombinowac.
    > >
    > >> >Dlatego w lustrzankach zastosowano pomiar matrycowy, i
    > >> >wielopunktowy.
    > >> >Pierwsza matryca - Nikon FA 1983 rok. I w zasadzie na dziś dzień
    > >> >stosują go wszystkie aparaty cyfrowe - przy >czym pomiar jest
    > >> >dokonywany albo na matrycy właściwej, zdjęciowej, albo w przypadku
    > >> >lustrzanek na osobnym elemencie wbudowanym w tor optyczny.
    > >
    > >> Tylko, zebys nie wprowadzil mlodszych czytelnikow w blad z ta
    > >> matryca
    > >> https://en.wikipedia.org/wiki/Nikon_FA
    >
    > >Ale że co? Pomiar matrycowy może być też dokonany na matrycy
    > >zdjęciowej, czyż nie?
    >
    > Moze, tylko tamten "pomiar matrycowy" korzystal z calkiem innej
    > matrycy.

    Jak weźmiesz lustrzankę cyfrową to też masz dwie matryce - pomiarową i zdjęciową.
    IMHO ważny jest sposób pomiaru, a nie miejsce gdzie się odbywa, byle był TTL.
    >
    > Nawiasem mowiac - ten "sredniowazony" pomiar w Zenicie TTL, to byly
    > dwa fotorezystory umieszczone w rogach pryzmatu pentagonalnego, ktore
    > chyba na matowke patrzyly ... ale jak madrze brzmi :-)

    Jakoś tak. Ale skuteczny ten pomiar był, jeżeli trafiłeś na produkcję ze środy w
    środku miesiąca.

    >
    >
    > >> "AMP used a light meter with two segmented silicon photodiodes to
    > >> divide the field of view into five segments: the center and the
    > >> four
    > >> outer quadrants.
    >
    > >> No i tak troche przestalem rozumiec ... tych fodiod bylo naprawde
    > >> 5, z
    > >> czego 4 w jednej obudowie ?
    >
    > >Fotodiody były dwie.Podzielone na sektory.
    >
    > Czyli de facto osobnych fotodiod (sektorow) ... ale w dwoch osobnych
    > obudowach ?
    > W jednej mierzaca centrum, a w drugiiej 4 sektory ?

    Nie jestem pewny na 100%, ale wydaje mi się że 2 fotodiody (pewne) podzielone każda
    na 3 sektory (domysł). Centralny wspólny.

    >
    > >> http://www.mir.com.my/rb/photography/hardwares/class
    ics/nikonfa/fatech/matrixflowchart.htm
    > >Przekombinowali.
    >
    > Nikon, czy ci opisujacy jak to dzialalo ?
    Ci od opisów.
    Pozdrawiam Marcin


  • 237. Data: 2019-04-21 19:26:44
    Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
    Od: Marek S <p...@s...com>

    W dniu 2019-04-18 o 11:45, J.F. pisze:
    >
    >> I masz rację. To odwrotność jasności:
    >> https://drive.google.com/file/d/1BDAacCfa7vISUxoMnRA
    O3hIqg-FixX1T/view?usp=sharing
    >>
    >
    >> Innymi słowy, czarne zamienia się miejscami z białym, czego ja nie lubię.
    >
    > Nawet nie o to mi chodzi, tylko o to, ze konwersja wartosci piksela na
    > jasnosc ... wydruku, bedzie calkiem inna niz na monitorze.

    Nikt nad takimi duperelami się nie zastanawia nawet. Problem wygląda na
    wyssany z palca i pretenduje do tematyki kółka filozoficznego dla
    zwolenników płaskiej Ziemi :-D

    > No ale moze potrafi to odpowiednio skorygowac ... ale skoro jest, to
    > widac komus bylo to potrzebne :-)

    Np. mnie. Zresztą nie tylko. Gdy oglądam na YT sztuczki grafików w celu
    poszerzenia umiejętności, to również zwracam na konfigurację narzędzi. I
    ten właśnie sposób konfiguracji narzędzia odziedziczyłem po jednym z nich.

    >>>> Znów nie wiem o czym mówisz. Chodzi o pierwszy z 3 wykresów jakie
    >>>> przytoczyłem? Tam losowo wybrałem 63.
    >>
    >>> Raczej o te prosta konwersji, ktora pokazywales pare dni wczesniej.
    >
    >> ... i której nigdy do niczego nie użyłem? Już kojarzę.
    >
    > To bylo nie pokazywac :-)

    Skoro pytałeś czym jest brightness, to pokazałem. Miałem Cię olać?

    >> Tam wybrałem kompresję tonalną. Nie rozjaśniałem żadnego z
    >> prezentowanych zdjęć, nawet w celach demonstracyjnych. A różnica
    >> względem rozjaśnienia polega na - jak również wiele razy wyjaśniałem -
    >> nie ruszaniu żadnego z handlerów.
    >
    > Kiedys tam napisales, ze te kwadraciki w srodku krzywej to tez handlery.

    Tak, zgadza się - o ile są. Na screenshocie narzędzi, który omawiamy są
    tylko dwa: na początku i na końcu. Wyłącznie to miałem na myśli.
    Handlerów (uchwytów) może być sporo.

    >> Natomiast Krzywa kompresji staje się dość złożona.
    >
    > Jesli odpowiada takiej, jak pokazywales na jednym z widokow, to IMO jest
    > calkiem trywialna.

    Owszem, ta, co pokazałem jest trywialna i nie używana przeze mnie w
    niniejszym wątku i prawie nigdy w pozostałych sytuacjach.

    > Nie. Patrze tylko JPG wygenerowany przez Ciebie.
    >
    > Ty w jednej jego polowie umiesciles swoj obraz z ARW, a po drugiej to co
    > otwarles z "przetworzonego" przez mnie ARW.
    >
    > Mowisz, ze oba ARW sa takie same, a na tym JPG ten sam piksel z obu
    > obrazow jest inny.

    Zapewne mówisz o:
    https://drive.google.com/file/d/1SfhAx__hj9I7eqti9h4
    ZHqy_6Uyol8Vs/view?usp=sharing

    Jeśli tak, to niczego nie zrozumiałeś. ARW są takie same __BO NIE DA SIĘ
    W ŻADEN SPOSÓB__ programami graficznymi zmienić struktury RAW. Powyższy
    test wykazał to. Mimo to twierdziłeś, że zmieniłeś strukturę ARW za
    pomocą programu Sony Image coś tam. Przytoczyłem Ci więc zdanie z
    instrukcji obsługi tego programu, gdzie wyraźnie napisano, że niczego
    takiego on nie potrafi, jak sugerowałeś.

    A to, że gdzieś w dyskusji wygenerowałem jakiś JPG kompletnie niczego
    nie oznacza. JPG to tylko jedna z wielu interpretacji ARW, których może
    być nieskończenie wiele. Biele możesz zamienić w czerń a czernie w biel.
    To też będzie jedną z interpretacji zrealizowanych suwaczkami w ACR.
    Wybrałem na potrzeby dyskusji jakąś z nich i tyle. Mało tego, nie jestem
    w stanie odtworzyć jaka ona była, bo mam jedynie plik ARW - nie
    zapisywałem pliku XMP zawierającego listę korekt. Z pewnością nie były
    to żadne proste korekcji - co mi próbowałeś wielokrotnie przypisać.
    Potem używasz tego randomowo wygenerowanego JPG do tworzenia jakiś teorii.

    Jeszcze raz powtórzę: jeśli masz dwie kopie jakiegokolwiek RAW, to przy
    tej samej konwersji do bezstratnego formatu (TIFF, PNG itp) otrzymasz
    identyczne obrazy co do piksela. I tylko to pokazałem na tym podwójnym
    zdjęciu Twojego i mojego RAW, gdzie byłeś przekonany, że Twój RAW musi
    zawierać naniesione przez Ciebie zmiany. Udowodniłem, że nie zawierał.
    To było moim jedynym celem.


    >> Owszem, bardzo dziwna: mocno nieliniowa z zachowaniem krańcowych
    >> wartości.
    >
    > No wlasnie - skoro koncowe wartosci zachowane, to czy aby na pewno
    > kompresja.

    Tak. Kompresja nie musi działać na całość zakresu tonalnego.

    >> Absolutnie nie!!! Po raz 18ty zaprzeczam: nie użyłem tam żadnej
    >> prostej konwersji.
    >
    > Ja tylko o tym, czy to nie jest taki przypadek, gdzie mozna uzyc takiej
    > konwersji.
    > I przypominam cel - chcemy zobaczyc co sie kryje w tych ciemnych partiach.
    > Reszta mnie w zasadzie nie interesuje.
    >
    > Owszem - szara breja nam tego nie ulatwi.

    I jak sam zauważyłeś - nie tylko nie ułatwi, ale wręcz zdewastuje
    zdjęcie na tyle, że już niczego nie zobaczymy z tego, co było w
    ciemniejszych fragmentach. __Nie WOLNO__ używać prostych konwersji. Nie
    nadają się do tego celu.

    >>> to jakby to sie nazywalo ?
    >> Tak samo: zmniejszasz liczbę tonów w obrazie.
    >
    > Ja bym rzekl, ze rozpietosc tonalna jednych  partii kompresuje, zeby
    > rozpietosc innych partii rozszerzyc.

    Ok, to w rozmowie z grafikami używaj terminu "używamy
    kompreso-ekspandera kontrastowo jasnościowego". Będzie to wierniejsze
    określenie i z pewnością staniesz się wtedy znany w środowisku :-D

    > Co do ilosci tonow - przy 8-bit cz-b (szarych) obrazkach mialbys troche
    > racji - oryginal zawieral powiedzmy 256 poziomow szarosci,
    > po takiej operacji niektore z nich znikna.
    > Ale kto stoi i liczy ile poziomow szarosci jest obecnych w obrazie ?
    > Raczej patrzy czy czernie nie są "płowe", a biele szare. A srajnych
    > punktow jak piszesz - nie ruszasz.

    Więc bez sensu jest takie filozofowanie, jak sam teraz postrzegasz.

    >>> Zarzut rozumiem, tylko ze dla demonstracji prawidlowej metody
    >>> przyslales mi wykres z prosta, ktora 0 zamieniala w 63.
    >> Po raz 19ty zaprzeczam temu.
    >
    > Ze wyslales, czy ze nazwales to prawidlowa metoda ?

    Zaprzeczam temu, że coś takiego Ci wysyłałem w celu jaki opisujesz. Cel
    był zupełnie inny, co tłumaczyłem znacznie mniej niż 19 razy.

    > Bylo od razu pokazac te krzywa, to bys nie musial 19 razy zaprzeczac.

    Jak powyżej wspomniałem tu i w innej gałązce - nie mam tej krzywej gdyż
    ACR tak nie działa. Tzn też tak może działać ale ja nie wykorzystałem
    operacji na krzywej w sposób jawny. Nie wiem jaki kształt ACR wybrał
    sobie jako skutek moich zabiegów.Nie sądziłem, że o krzywej będziemy
    gadać skoro nie o tym miał być wątek.

    >> Przy oknie ta krzywa była zupełnie inna ale zasada podobna. Krzywa,
    >> której użyłem miała 4 węzły.
    >
    > A moja 3, choc w co tu mowic o wezlach, skoro to jest krzywa
    > nieokreslonego rodzaju.

    Bo każda krzywa Beziera (chyba tak możemy ją nazwać) bazuje na węzłach i
    stycznych. Miej więcej tak działa funkcjonalność manipulacji tym wykresem.

    >>> Moze i swiatlomierz wykrylby 100% roznice jasnosci, ale moje oko nie.
    >>> Przynajmniej w jasnym otoczeniu nie.
    >> Pełna zgoda. W końcu 1ev różnicy to dla oka prawie nic.
    >
    > O, nie tak znowu nic - w ciemni pewnie bym zobaczyl roznice, jakbym pol
    > ekranu mial w jasnosci 0, a pol w jasnosci 1.

    No, ok. Niech będzie skoro mamy być purystami. Ja miałem na myśli
    normalne warunki. Idziesz przeciętną ulicą przeciętnego dnia gdzie
    oświetlenie jest przeciętne skoro dwa pierwsze warunki też takie są.
    Robisz o 1ev jaśniej i widzisz trochę jaśniej. Gdybyś nie skupił się na
    fakcie wystąpienia tejże zmiany, to pewnie byś jej nawet nie zauważył.

    Ja natomiast takie rzeczy obserwuję prawie na co dzień. RObię fotę
    jakiegoś pomieszczenia pod nieco innym kątem - światłomierz pokazuje 1ev
    różnicy. A ja patrzę w ten i poprzedni punkt i pytam: seriously?? Ale
    mimo to posłusznie koryguję czas naświetlania... A to dlatego, ze 1ev
    dla oka to nic, ale na w aplikacji graficznej robi to kolosalną
    różnicę... bo aparat widzi inaczej. Dlatego też ludzie składają HDRy dla
    obrazów różniących się zaledwie 1-2ev a nie np. 7ev. I do tego m.in.
    tytuł wątku nawiązuje.

    > A kto wie, co by pokazal swiatlomierz, jakby tak zmierzyc ... tylko to
    > juz chyba nie fotograficzny musialby byc.

    Ja wiem na pamięć, co pokazałby światłomierz. Nie wiem co masz na myśli:
    fotograficzny czy zwykły? Fotograficzny potrafi dużo więcej. To jedyna
    różnica.

    A propos... przypomniałem sobie dyskusję o jasnościach sceny. Przed
    chwilą wykonałem podobne zdjęcie do omawianego kiedyś tam:

    https://drive.google.com/file/d/1R8-cjg98tXk_fthiIe_
    nWsTzKvnZbpG5/view?usp=sharing

    Pomierzyłem jasności w luxach swoim światłomierzem. Tryb kierunkowy
    wybrałem. Wyszły mi wyniki zupełnie inne niż wyczytałeś gdzieś tam.
    Ściana ma 110lux, krzaki 1600 lux a niebo 4800 lux. Po prawej stronie
    wiele korekt w ACR by było widać, co zrobiłem. Zapewniam: żadna z korekt
    nie była zwykłą prostą (co zasugerujesz pewnie po raz 20ty).


    > Mi tylko chodzi o to, ze powinienes dopatrzec sie czegos na parapecie ...
    > no dobra - byloby dopatrywanie sie w bardzo ciemnych partiach, a na oko
    > to pewnie widziales go calkiem jasno.

    I o to właśnie chodziło - całkiem jasno. A w 14-bitowej matrycy
    musiałbym HDRa składać by podobnie widzieć.

    >> To dlatego, że masz paradoksalnie kiepski monitor.
    >
    > Ale za to typowy :-)

    6 bitów w lapku, to już nie jest typowy :-)
    I jako ciekawostka: aby na typowych monitorach, typowi oglądacze nie
    powiedzieli na zdjęcie: ble, trzeba je mocno zdewastować:
    1. Przekolorować.
    2. Jeśli dominują ciemne kolory: zredukować dynamikę do 7-bitów w
    kierunku jasnych.
    3. Przekontrastować.

    Wtedy procent zadowolonych do niezadowolonych mocno wzrasta. I co
    jeszcze ciekawsze, Ci niezadowoleni czasem krytykują tak zniszczone
    zdjęcia jako ... zbyt dobre. To cytat.

    >>> Drugi od lewej. U Ciebie gdzies 6% -> 25%
    >
    >> Akurat jak u mnie było, to nie wiem. W ACR to się działo. Tam nie
    >> widać handlerów i krzywej.
    >
    > Rozumiem. Czyli co on zrobil to nie bardzo wiadomo ... ale domyslamy
    > sie, ze mniej wiecej to, co zademonstrowales na krzywej.

    Bardzo luźno powiązane było moje doświadczenie z realnym wynikiem, ale
    generalnie tak.

    >> Bo nie ma detektora śniegu. Czym śnieg różniłby się od szarej ściany?
    >
    > To po co mu te tysiace scen do dopasowania, skoro ich pewnie tez moze
    > wykryc ?

    M.in. po to by balans bieli umieć wykryć. Po to by umieć optymalną dla
    oka jasność ustawić i pewnie jeszcze coś. To nie tylko matematyka ale i
    "doświadczenia" takie jak my zbieramy. W końcu nie widzimy na
    pomarańczowo w oświetleniu żarowym. Aparat jakoś musi się dowiedzieć, że
    jest w pokoju, w którym żarówki są.

    >> Raz jeszcze: popatrz na śnieg przez rurkę a potem na ścianę. Spróbuj
    >> odróżnić. Zrb to o różnych porach dnia i nocy.
    >
    > Jak sie ma tysiace scen, to mozna  miec kilka ze sniegiem o roznych
    > godzinach :-)

    Powodzenia.

    > No ale jasny snieg czy biala sciana ... co za roznica ?

    Właśnie. Żadna dla aparatu!

    > Ma rozpoznac, ze to ma byc naprawde biale, i nas nie badzo interesuje -
    > osoby maja byc prawidlowo naswietlone.
    > Tak jak te twoje packshoty na bialym tle.

    Doprawdy? A ciemnoszara ściana też ma być śnieżnobiała? Idąc tym
    sposobem rozumowania, tak właśnie miałoby być.

    Czy wobec powyższego, naukowcy, którzy opracowują "inteligencję"
    aparatów to skończone głąby, skoro nie potrafią sprzętu nauczyć odróżniania?


    >> Aparat patrząc na śnieg obniża czułość tak, aby wyszła ok właśnie 18%
    >> szarości. Dlatego staje się on szary.
    >
    > O ile pamietam, to te karte wymyslono, bo skora bialego czlowieka odbija
    > 18%, wiec do niej dobierano oswietlenie.

    Możliwe, nie jest to istotne. W każdym razie posługując się tą kartą
    wykonasz zdjęcie z bardzo dobrze dobraną ekspozycją, zarówno na śniegu
    jak i ciemnoszarej ściany. Znika problem "szarego śniegu".

    >
    > Ale chyba cos zle pamietam
    > https://en.wikipedia.org/wiki/Zone_System

    Nie będę komentował, bo nie wiem jak to się ma do współczesności.

    > Lustrzanki to osobny klopot, bo tam w zasadzie matryca nie widzi przed
    > zdjeciem, wiec trzeba kombinowac.

    Dlatego nie chciałem lustrzanki, kupiłem alternatywę. Mam mnóstwo
    problemów mniej. Kiedyś środowisko reagowało zdziwieniem na taki mój
    pogląd a teraz to samo środowisko powoli się nawraca.

    > Tak sie domyslam, ze jak uruchomisz program i wczytasz tego ARW bez
    > ruszania czegokolwiek, to parapet bedzie czarny.
    >
    > No chyba, ze program pamieta ostatnie parametry konwersji ... a nie ma
    > jakiegos przycisku "reset to default" ?


    Hę?? Nie wiem o czym piszesz. Ja robię zdjęcia w trybie manualnym. Z
    automatyki korzystam, gdy nie można inaczej.

    --
    Pozdrawiam,
    Marek


  • 238. Data: 2019-04-22 15:38:51
    Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
    Od: Marek S <p...@s...com>

    W dniu 2019-04-17 o 12:03, J.F. pisze:

    > Jest mozliwosc, ze jak to otwierasz w swoich programach, to to co
    > zapisal IE jest ignorowane.
    > On sam siebie zreszta tez jakos ignoruje.

    Kłopot wynika z tego, że nie rozumiesz czym jest obróbka plików RAW
    praktycznie w jakimkolwiek sofcie. Gdy ruszasz suwakami, coś tam
    zmieniasz, to struktura RAW nie zmienia się ani odrobinę. Koniec kropka.

    >>> Ja patrze na ten jeden jpg, ktory wyprodukowales
    >>> https://drive.google.com/file/d/1SfhAx__hj9I7eqti9h4
    ZHqy_6Uyol8Vs/view?usp=sharing
    >>>
    >>
    >>> I to jest gorny rog tego kwadracika na szybie.
    >>> Ale chyba widze, ze rozdzielczosci sa inne ... moze przesunales o 1
    >>> piksel, a moze objawila sie stratnosc kompresji JPG - musialbys drugi
    >>> obraz umiescic przesuniety o wiekrotnosc 8.
    >
    >> No coś Ty! Zdjęcia są identyczne.
    >
    > Marku - ale na powyzszym - jakie masz wartosci dla pikseli
    > 494,275
    > 1491,275

    W obu (183, 183, 175). I co z tego ma wynikać poza tym, że są
    identyczne, jak już napisałem?

    > Ale ten obrazek powyzej ma znacznie mniejsza rozdzielczosc.
    > Moze jak go montowales, to przestawiles te duze o 1 px, i w efekcie ja
    > patrzac na "ten sam piksel"
    > mierze zestawiony z innych pikseli oryginalu.

    Tylko dzięki funkcji przyciągania te obrazki ułożyły się równo.
    Faktycznie nie dbałem o ich ułożenie bo nie sądziłem, że piksele
    będziesz badał. Czysty przypadek.

    >> Zaraz będę wył. Na samym dole przedstawiam listing takowego z jakieś
    >> pierwszej z brzegu foty jaką znalazłem na swoim kompie. Ja to nazywam
    >> tekstem.
    >
    > Twoje programy zapisuja tekst.
    > A Imaging Edge zapisuje cos innego.

    Jak czytam tu:
    https://support.d-imaging.sony.co.jp/app/imagingedge
    /en/instruction/5_3_save_adjustment.php

    jest to plik XML. To też tekst. Nawet jeśli trzyma w bazie danych te
    zmiany, to zawsze one są tekstem. To jest standard. Chyba Lightroom może
    tak robić, ze pliki ze zmianami trzymane są bazie lub w plikach. Przy
    czym można to konfigurować. Jeśli chcesz zobaczyć te zmiany w formie
    tekstowej, to użyj procedury z powyższej instrukcji obsługi programu.

    >> Super, więc pewnie wstrzeliłeś się np. w osadzonego JPG lub zakodowane
    >> dane konfiguracyjne itd. Możliwości jest wiele.
    >
    > I co - myslisz, ze jesli 24MB z 25MB jest takie same, to to sa dane
    > konfiguracyjne ?

    ...plus osadzony JPG. A dane nie konfiguracujne lecz informacyjne -
    takie jak zastosowana przesłona, czas, koordynaty GPS i kupa innych.
    Choć być może w/w soft również tekstowe instrukcje zmian jakoś dołącza.
    Tego nie wiem i nie chcę wiedzieć.

    > Ale tu akurat nie mamy sie o co klocic - przyznaje, ze wiekszosc pliku
    > jest niezmieniona i to beda te dane pikseli.

    Więc w tej niezmienionej części powinieneś szukać zmian, których ... nie
    ma :-D

    >>> Dlatego tez zapisalem sobie po prostej zmianie, i porownalem pliki.
    >> Skoro wystąpiła w plikach choćby najdrobniejsza różnica, to zrobiłeś
    >> to źle. Bo taka jest natura RAW - nie da się ingerować normalnym
    >> softem graficznym w jego strukturę.
    >
    > Ja tam mysle, ze jesli program ma opcje "zapisz jako ARW", to cos tam
    > jednak zapisuje.

    Ok, ale musiałbyś kościół wyznaniowy do tej teorii utworzyć. Ja z
    pewnością będę jedynie się uśmiechał przechodząc obok :-D

    Jedyne co tego typu programy zapisują, to listę zmian w postaci tekstu.
    Niezależnie czy będzie to w bazie danych, czy w pliku XMP/XML, czy
    dołączony RAW.

    > Ale sie zgadzamy, ze wyglada na to, ze IE pikseli nie zmienil, tylko
    > jakies inne dane.
    Sprostowanie: ja to wiedziałem od samego początku, a Ty się zgodziłeś z
    tym w poście nr 567658760.

    >> Tak jak pisałem: nie złożysz dwóch zdjęć ze sobą jeśli miały inną
    >> przesłonę. Cel składania nieistotny. Nie skupiajmy się na nim.
    >
    > Ale ja nie chce skladac - mnie wystarczy jedno zdjecie z jasnym
    > parapetem :-)

    To zaczekaj do 22 wieku :-D
    Póki co, na bazie niniejszego wątku, uważam, że to niewykonalne.

    >> Po drugie, co też pisałem, ruszając przesłonę __ZMIENIASZ GŁĘBIĘ
    >> OSTROŚCI__ Co mi ze zdjęcia modelki, gdzie tylko czubek nosa będzie
    >> ostry a reszta rozmyta?
    >
    > Czasem tak ma byc i tak jest lepiej .

    Przy składaniu zdjęć - bo o tym mówiłem - to niedopuszczalne. Nie
    zmieniaj kontekstu. Nawet jeśli teraz powiedziałeś, że nie chcesz
    składać, to i tak mój kontekst mojej wypowiedzi obowiązuje.

    >
    > I to jest temat na ewentualny dalszy ciag dyskusji o fotografowaniu
    > rzeczywistosci - gdy oko uwaza ze monitor jest tak samo jasny jak okno,
    > a kamera bedzie bezlitosna.

    Sęk w tym, że ten temat miał być jedynym poruszanym w niniejszym wątku -
    patrz tytuł.

    > Tylko ... jak sfotografujesz swoim Sony monitor na tle nieba, a potem
    > odpowiednio rozjasnisz fotke,
    > to czy ogladajac ja na monitorze znow nie bedziesz mial wrazenia, ze
    > teraz widac na niej
    > i monitor i okno porownywalnie jasno ... tak jak widac w rzeczywistosci ?

    Dokładnie tak było. Do takiej sytuacji doprowadziłem po ekstremalnych
    korektach nie osiągalnych w zwykłym przetwarzaniu RAW w ARW.

    >>> No ale patrzac na szachownice Adelsona ... czy to takie dziwne, ze
    >>> monitor wydaje sie tak samo jasny jak niebo ?
    >> Sęk w tym, że po niebie nie latała żadna szachownica. Było błękitne.
    >
    > szachownica pokazuje, ze oko/mozg potrafi sie bardzo pomylic w ocenie
    > jasnosci, jesli tylko obiekty nie sasiaduja ze soba.

    A niebo z czym sąsiadowało? Czy sądzisz, że jeśli z tej szachownicy
    wyodrębnić dwa pola i regulować jasność jednego z nich wyrównamy ją z
    drugim polem, to ponieważ pola pochodzą z szachownicy Adelsona, to nie
    ma szans by po takim wyrównaniu jasności miały ją identyczną? :-D :-D


    --
    Pozdrawiam,
    Marek


  • 239. Data: 2019-04-22 22:57:13
    Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
    Od: "J.F." <j...@p...onet.pl>

    Dnia Mon, 22 Apr 2019 15:38:51 +0200, Marek S napisał(a):
    > W dniu 2019-04-17 o 12:03, J.F. pisze:
    >> Jest mozliwosc, ze jak to otwierasz w swoich programach, to to co
    >> zapisal IE jest ignorowane.
    >> On sam siebie zreszta tez jakos ignoruje.
    >
    > Kłopot wynika z tego, że nie rozumiesz czym jest obróbka plików RAW
    > praktycznie w jakimkolwiek sofcie. Gdy ruszasz suwakami, coś tam
    > zmieniasz, to struktura RAW nie zmienia się ani odrobinę. Koniec kropka.

    Alez ja to rozumiem. Zreszta od poczatku pisalem, ze ten ARW sie jakos
    malo zmienil.

    Co nie znaczy, ze kiedys nie nie pojawi program, ktory to umozliwi.
    Tylko po co.

    Ale wracajac do IE - otwieram twoj plik, rozjasniam o 2EV (wiecej nie
    pozwala), zapisuje ... po cos ten zapis jest, zreszta troche sie ten
    plik zmienil.
    Otwieram w IE ... jest ciemniejszy niz byl po rozjasnieniu.

    >>>> Ja patrze na ten jeden jpg, ktory wyprodukowales
    >>>> https://drive.google.com/file/d/1SfhAx__hj9I7eqti9h4
    ZHqy_6Uyol8Vs/view?usp=sharing
    >>>>
    >>>> I to jest gorny rog tego kwadracika na szybie.
    >>>> Ale chyba widze, ze rozdzielczosci sa inne ... moze przesunales o 1
    >>>> piksel, a moze objawila sie stratnosc kompresji JPG - musialbys drugi
    >>>> obraz umiescic przesuniety o wiekrotnosc 8.
    >>
    >>> No coś Ty! Zdjęcia są identyczne.
    >>
    >> Marku - ale na powyzszym - jakie masz wartosci dla pikseli
    >> 494,275
    >> 1491,275
    >
    > W obu (183, 183, 175).

    Jestes pewien ? Bo ja widze
    157, 156, 138
    151, 149, 124


    >I co z tego ma wynikać poza tym, że są identyczne, jak już napisałem?

    Ty ten obrazek zrobiles.
    Połączyles dwa takie same, a wartosc inna - taka ciekawostka :-)

    >>> Zaraz będę wył. Na samym dole przedstawiam listing takowego z jakieś
    >>> pierwszej z brzegu foty jaką znalazłem na swoim kompie. Ja to nazywam
    >>> tekstem.
    >>
    >> Twoje programy zapisuja tekst.
    >> A Imaging Edge zapisuje cos innego.
    >
    > Jak czytam tu:
    > https://support.d-imaging.sony.co.jp/app/imagingedge
    /en/instruction/5_3_save_adjustment.php
    >
    > jest to plik XML. To też tekst. Nawet jeśli trzyma w bazie danych te
    > zmiany, to zawsze one są tekstem. To jest standard.

    Ale to jest plik ustawien.

    Zobacz tu
    https://support.d-imaging.sony.co.jp/app/imagingedge
    /en/instruction/5_1_save_as_raw.php

    Zapewne masz racje - to zapisuje oryginalne dane plus w jakis sposob
    zapamietane ustawienia - ale nie w postaci XML.
    Chyba, ze skompresowany ten XML.

    >>> Super, więc pewnie wstrzeliłeś się np. w osadzonego JPG lub zakodowane
    >>> dane konfiguracyjne itd. Możliwości jest wiele.
    >>
    >> I co - myslisz, ze jesli 24MB z 25MB jest takie same, to to sa dane
    >> konfiguracyjne ?
    >
    > ...plus osadzony JPG. A dane nie konfiguracujne lecz informacyjne -
    > takie jak zastosowana przesłona, czas, koordynaty GPS i kupa innych.
    > Choć być może w/w soft również tekstowe instrukcje zmian jakoś dołącza.
    > Tego nie wiem i nie chcę wiedzieć.

    Ja tam pierwsze co robie to pliki porownuje.

    I widze co jest innego, a co takiego samego.
    Choc dane sa binarne, wiec nie bardzo wiem czego dotycza.

    >> Ale tu akurat nie mamy sie o co klocic - przyznaje, ze wiekszosc pliku
    >> jest niezmieniona i to beda te dane pikseli.
    >
    > Więc w tej niezmienionej części powinieneś szukać zmian, których ... nie
    > ma :-D

    Ale po co mam tam szukac zmian, skoro wiem, ze ich nie ma ?
    Ogladam sobie to, co jest inne :-)

    >>>> Dlatego tez zapisalem sobie po prostej zmianie, i porownalem pliki.
    >>> Skoro wystąpiła w plikach choćby najdrobniejsza różnica, to zrobiłeś
    >>> to źle. Bo taka jest natura RAW - nie da się ingerować normalnym
    >>> softem graficznym w jego strukturę.
    >>
    >> Ja tam mysle, ze jesli program ma opcje "zapisz jako ARW", to cos tam
    >> jednak zapisuje.
    >
    > Ok, ale musiałbyś kościół wyznaniowy do tej teorii utworzyć. Ja z
    > pewnością będę jedynie się uśmiechał przechodząc obok :-D

    Ja tam mysle, ze jakby mial to samo zapisac, to albo by takiej
    operacji nie bylo, albo by sie nazywala "Save a Copy".

    Ale klocic sie nie ma o co - zapisuje plik, 99% bez zmian, 1%
    zmieniony, 1% nowych danych

    > Jedyne co tego typu programy zapisują, to listę zmian w postaci tekstu.
    > Niezależnie czy będzie to w bazie danych, czy w pliku XMP/XML, czy
    > dołączony RAW.

    A tu nie ma tekstu.

    >> Ale sie zgadzamy, ze wyglada na to, ze IE pikseli nie zmienil, tylko
    >> jakies inne dane.
    > Sprostowanie: ja to wiedziałem od samego początku, a Ty się zgodziłeś z
    > tym w poście nr 567658760.

    Ja to tez wiedzialem odkad porownalem pliki.

    A ty nie chcesz przyjac do wiadomosci od ilus postow, ze tekstu tam
    nie ma.

    Ale ... jest jeszcze mozliwosc, ze jednak zmienil dane pikseli,
    a poniewaz operacja byla prosta, a dane sa skompresowane, to zmienily
    sie tylko slowniki do dekompresji.

    >>> Tak jak pisałem: nie złożysz dwóch zdjęć ze sobą jeśli miały inną
    >>> przesłonę. Cel składania nieistotny. Nie skupiajmy się na nim.
    >>
    >> Ale ja nie chce skladac - mnie wystarczy jedno zdjecie z jasnym
    >> parapetem :-)
    >
    > To zaczekaj do 22 wieku :-D
    > Póki co, na bazie niniejszego wątku, uważam, że to niewykonalne.

    Alez wykonalne, wystarczy zmienic parametry "naswietlania", tylko ze
    okno bedzie przepalone.

    >> I to jest temat na ewentualny dalszy ciag dyskusji o fotografowaniu
    >> rzeczywistosci - gdy oko uwaza ze monitor jest tak samo jasny jak okno,
    >> a kamera bedzie bezlitosna.
    >
    > Sęk w tym, że ten temat miał być jedynym poruszanym w niniejszym wątku -
    > patrz tytuł.

    Ale o jest ciag dalszy

    >> Tylko ... jak sfotografujesz swoim Sony monitor na tle nieba, a potem
    >> odpowiednio rozjasnisz fotke,
    >> to czy ogladajac ja na monitorze znow nie bedziesz mial wrazenia, ze
    >> teraz widac na niej
    >> i monitor i okno porownywalnie jasno ... tak jak widac w rzeczywistosci ?
    >
    > Dokładnie tak było. Do takiej sytuacji doprowadziłem po ekstremalnych
    > korektach nie osiągalnych w zwykłym przetwarzaniu RAW w ARW.

    Zebysmy sie zrozumieli - fotografujesz okno, przetwarzasz obrazek,
    wyswietlasz na monitorze.
    Ustawiasz monitor na tle okna, podkrecasz jasnosc, i mowisz ze obraz
    okna na monitorze jest tak samo jasny, jak okno.

    Tymczasem wiemy, ze monitor ma max 400 cd/m^2, a niebo 7000.

    Wiec sfotografuj ten monitor na tle okna, i moze jeszcze zmierz
    swiatlomierzem i monitor i widok za oknem.

    >>>> No ale patrzac na szachownice Adelsona ... czy to takie dziwne, ze
    >>>> monitor wydaje sie tak samo jasny jak niebo ?
    >>> Sęk w tym, że po niebie nie latała żadna szachownica. Było błękitne.
    >>
    >> szachownica pokazuje, ze oko/mozg potrafi sie bardzo pomylic w ocenie
    >> jasnosci, jesli tylko obiekty nie sasiaduja ze soba.
    >
    > A niebo z czym sąsiadowało?

    Z ramka monitora :-)

    > Czy sądzisz, że jeśli z tej szachownicy
    > wyodrębnić dwa pola i regulować jasność jednego z nich wyrównamy ją z
    > drugim polem, to ponieważ pola pochodzą z szachownicy Adelsona, to nie
    > ma szans by po takim wyrównaniu jasności miały ją identyczną? :-D :-D

    W sensie, ze mamy na monitorze dwa prostokaty, rozdzielone np czarnym
    obszarem ... no, dobre pytanie ...

    J.


  • 240. Data: 2019-04-23 12:24:18
    Temat: Re: Czy istnieje możliwość fotografowania rzeczywistości?
    Od: "J.F." <j...@p...onet.pl>

    Użytkownik "Marek S" napisał w wiadomości grup
    dyskusyjnych:q9i94q$4sd$...@n...news.atman.pl...
    W dniu 2019-04-18 o 11:45, J.F. pisze:
    >> I masz rację. To odwrotność jasności:
    >> https://drive.google.com/file/d/1BDAacCfa7vISUxoMnRA
    O3hIqg-FixX1T/view?usp=sharing
    >>> Innymi słowy, czarne zamienia się miejscami z białym, czego ja nie
    >>> lubię.
    >
    >> Nawet nie o to mi chodzi, tylko o to, ze konwersja wartosci piksela
    >> na jasnosc ... wydruku, bedzie calkiem inna niz na monitorze.

    >Nikt nad takimi duperelami się nie zastanawia nawet. Problem wygląda
    >na wyssany z palca i pretenduje do tematyki kółka filozoficznego dla
    >zwolenników płaskiej Ziemi :-D

    Czy on taki wyssany ... jesli jasnosc 10% oznacza 90% tuszu na
    papierze, to wychodzi nam 10% bialego papieru i jasnosc 10%
    maksymalnej.
    Jaka wartosc piksela podac karcie graficznej, zeby to samo otrzymac na
    monitorzez gamma 2.2 czy 2.4 ?

    A moze faktycznie wyssany z palca, bo to nie ma znaczenia, bo oko i
    tak przerobi po swojemu :-)

    >>> Tam wybrałem kompresję tonalną. Nie rozjaśniałem żadnego z
    >>> prezentowanych zdjęć, nawet w celach demonstracyjnych. A różnica
    >>> względem rozjaśnienia polega na - jak również wiele razy
    >>> wyjaśniałem - nie ruszaniu żadnego z handlerów.
    >
    >> Kiedys tam napisales, ze te kwadraciki w srodku krzywej to tez
    >> handlery.

    >Tak, zgadza się - o ile są. Na screenshocie narzędzi, który omawiamy
    >są tylko dwa: na początku i na końcu. Wyłącznie to miałem na myśli.
    >Handlerów (uchwytów) może być sporo.

    Ale na tej krzywej na obrazku byly juz 4.
    Ok, moze i ich nie ruszales - wybrales jakis inny suwaczek i tak
    wyszlo.

    >>> Natomiast Krzywa kompresji staje się dość złożona.
    >> Jesli odpowiada takiej, jak pokazywales na jednym z widokow, to IMO
    >> jest calkiem trywialna.

    >Owszem, ta, co pokazałem jest trywialna i nie używana przeze mnie w
    >niniejszym wątku i prawie nigdy w pozostałych sytuacjach.

    No to juz nic nie rozumiem.
    Pisales, ze swoja "jasna wersje" zrobiles ... przy pomocy innych
    narzedzi, ale z grubsza biorac powinny one zrobic taka krzywa, jak na
    rysunku ...

    >> Nie. Patrze tylko JPG wygenerowany przez Ciebie.
    >
    >> Ty w jednej jego polowie umiesciles swoj obraz z ARW, a po drugiej
    >> to co otwarles z "przetworzonego" przez mnie ARW.
    >
    >> Mowisz, ze oba ARW sa takie same, a na tym JPG ten sam piksel z obu
    >> obrazow jest inny.

    >Zapewne mówisz o:
    >https://drive.google.com/file/d/1SfhAx__hj9I7eqti9h
    4ZHqy_6Uyol8Vs/view?usp=sharing

    Dokladnie.

    >Jeśli tak, to niczego nie zrozumiałeś. ARW są takie same __BO NIE DA
    >SIĘ W ŻADEN SPOSÓB__ programami graficznymi zmienić struktury RAW.
    >Powyższy test wykazał to. Mimo to twierdziłeś, że zmieniłeś strukturę
    >ARW za pomocą programu Sony Image coś tam. Przytoczyłem Ci więc
    >zdanie z instrukcji obsługi tego programu, gdzie wyraźnie napisano,
    >że niczego takiego on nie potrafi, jak sugerowałeś.

    Plik jest jednak inny.
    Ale przyznaje, ze tylko ~2% sa inne, a dane pikseli ... wygladaja
    jakby tak samo, zakladajac, ze te 99% pliku to dane pikseli ..

    >A to, że gdzieś w dyskusji wygenerowałem jakiś JPG kompletnie niczego
    >nie oznacza. JPG to tylko jedna z wielu interpretacji ARW, których
    >może być nieskończenie wiele.

    Zakladam, ze dochowales pewnej starannosci i obydwa konwertowales tak
    samo.
    A chyba wrecz najpierw zrobiles ten polaczony obrazek, a potem go
    zapisales jako JPG ... wiec czemu piksele po obu stronach sa inne ?

    >Jeszcze raz powtórzę: jeśli masz dwie kopie jakiegokolwiek RAW, to
    >przy tej samej konwersji do bezstratnego formatu (TIFF, PNG itp)
    >otrzymasz identyczne obrazy co do piksela. I tylko to pokazałem na
    >tym podwójnym zdjęciu Twojego i mojego RAW, gdzie byłeś przekonany,
    >że Twój RAW musi zawierać naniesione przez Ciebie zmiany.
    >Udowodniłem, że nie zawierał. To było moim jedynym celem.

    Tak ci sie tylko wydaje.
    Otwieram twoj ARW, otwieram swoj ARW ... moj jest jasniejszy.
    Exportuje dane do tiff ... pliki sa inne.

    Tyle tylko, ze otwieram go programem Imaging Egde.

    Przyznaje, ze on zapewne danych nie zmienil, tylko gdzies w tym pliku
    sobie zapisal jakie korekcje/komendy wprowadzilem.
    Ale nie tekstowo i nie jako XML.

    Teraz tylko pytanie - twoje programy ignoruja te zapisy, czy pomyliles
    pliki.
    A moze nie pomyliles, skoro jednak ten polaczony JPG jest inny :-)

    P.S. teraz dopiero widze ... strasznie krzywa ta rama okna na ARW.
    Dobra robote robi aparat i programy przy konwersji ...

    >>>> to jakby to sie nazywalo ?
    >>> Tak samo: zmniejszasz liczbę tonów w obrazie.
    >
    >> Ja bym rzekl, ze rozpietosc tonalna jednych partii kompresuje,
    >> zeby rozpietosc innych partii rozszerzyc.

    >Ok, to w rozmowie z grafikami używaj terminu "używamy
    >kompreso-ekspandera kontrastowo jasnościowego". Będzie to wierniejsze
    >określenie i z pewnością staniesz się wtedy znany w środowisku :-D

    Ja bym powiedzial "dokonalem korekty krzywej jasnosci".
    Ale moze macie swoj zargon, i wiecie o co chodzi.

    >> Co do ilosci tonow - przy 8-bit cz-b (szarych) obrazkach mialbys
    >> troche racji - oryginal zawieral powiedzmy 256 poziomow szarosci,
    >> po takiej operacji niektore z nich znikna.
    >> Ale kto stoi i liczy ile poziomow szarosci jest obecnych w obrazie
    >> ?
    >> Raczej patrzy czy czernie nie są "płowe", a biele szare. A srajnych
    >> punktow jak piszesz - nie ruszasz.

    >Więc bez sensu jest takie filozofowanie, jak sam teraz postrzegasz.

    Bez sensu to jest dla mnie okreslenie "zmniejszasz liczbę tonów w
    obrazie", w tym przypadku.
    Ale ja sie nie znam na waszym zargonie.

    Zreszta jak to nazywaja autorzy ? Curve adjustment ?
    https://helpx.adobe.com/photoshop/using/curves-adjus
    tment.html

    A gdzie znajde te "kompresje tonalna" w dokumentacji ?

    >> Bylo od razu pokazac te krzywa, to bys nie musial 19 razy
    >> zaprzeczac.
    >Jak powyżej wspomniałem tu i w innej gałązce - nie mam tej krzywej
    >gdyż ACR tak nie działa. Tzn też tak może działać ale ja nie
    >wykorzystałem operacji na krzywej w sposób jawny. Nie wiem jaki
    >kształt ACR wybrał sobie jako skutek moich zabiegów.Nie sądziłem, że
    >o krzywej będziemy gadać skoro nie o tym miał być wątek.

    No coz - watek jest niejako o zmianach jasnosci.
    Jak to odbiera oko, jak to odbiera matryca, co z tym robi monitor ...
    i czemu to jest inne :-)

    >>> Przy oknie ta krzywa była zupełnie inna ale zasada podobna.
    >>> Krzywa, której użyłem miała 4 węzły.
    >
    >> A moja 3, choc w co tu mowic o wezlach, skoro to jest krzywa
    >> nieokreslonego rodzaju.

    >Bo każda krzywa Beziera (chyba tak możemy ją nazwać)

    Nie wiem czy mozemy ... a wiesz, ze to krzywa Beziera ?

    > bazuje na węzłach i stycznych. Miej więcej tak działa funkcjonalność
    > manipulacji tym wykresem.

    A tu stycznych nie ma

    >>>> Moze i swiatlomierz wykrylby 100% roznice jasnosci, ale moje oko
    >>>> nie.
    >>>> Przynajmniej w jasnym otoczeniu nie.
    >>> Pełna zgoda. W końcu 1ev różnicy to dla oka prawie nic.
    >> O, nie tak znowu nic - w ciemni pewnie bym zobaczyl roznice, jakbym
    >> pol ekranu mial w jasnosci 0, a pol w jasnosci 1.
    >No, ok. Niech będzie skoro mamy być purystami. Ja miałem na myśli
    >normalne warunki. Idziesz przeciętną ulicą przeciętnego dnia gdzie
    >oświetlenie jest przeciętne skoro dwa pierwsze warunki też takie są.
    >Robisz o 1ev jaśniej i widzisz trochę jaśniej. Gdybyś nie skupił się
    >na fakcie wystąpienia tejże zmiany, to pewnie byś jej nawet nie
    >zauważył.

    Nie bardzo rozumiem.
    Idziemy na ulice, robimy dwa zdjecia rozniace sie ekspozycja o 1ev ?

    Po czym pokazujesz mi jedno i pytasz czy widze cos dziwnego ?
    Oczywiscie nic ... choc to akurat zalezy od konwersji - sciemnilem
    sobie twoj RAW o 1 ev ... rzuca sie w oczy, ze ciemno jakos za oknem
    :-)

    Jakbys mi pokazal jedno i drugie w jakims odstepie czasowym - pewnie
    tez bym nie zauwazyl.
    Ale obok siebie na monitorze czy papierze ... widac roznice, ale
    niekoniecznie da sie powiedziec, ktore "prawidlowe".

    >Ja natomiast takie rzeczy obserwuję prawie na co dzień. RObię fotę
    >jakiegoś pomieszczenia pod nieco innym kątem - światłomierz pokazuje
    >1ev różnicy. A ja patrzę w ten i poprzedni punkt i pytam: seriously??
    >Ale mimo to posłusznie koryguję czas naświetlania... A to dlatego, ze
    >1ev dla oka to nic, ale na w aplikacji graficznej robi to kolosalną
    >różnicę... bo aparat widzi inaczej. Dlatego też ludzie składają HDRy
    >dla obrazów różniących się zaledwie 1-2ev a nie np. 7ev. I do tego
    >m.in. tytuł wątku nawiązuje.

    No coz, jak dasz jasniej i przepalisz jasne partie, to oczywiscie
    bedzie kolosalna roznica.

    Ale jak zrobisz ciemniej, a masz 14-bit matryce ... i potem rozjasnisz
    w programie o ten 1ev ... Twoje fachowe oko pewnie zaraz zauwazy, ze w
    czerniach cos szumi, ale ja to nie wiem czy bym zwrocil uwage.

    >> A kto wie, co by pokazal swiatlomierz, jakby tak zmierzyc ... tylko
    >> to juz chyba nie fotograficzny musialby byc.

    >Ja wiem na pamięć, co pokazałby światłomierz. Nie wiem co masz na
    >myśli: fotograficzny czy zwykły? Fotograficzny potrafi dużo więcej.
    >To jedyna różnica.

    Fotograficzny ma swoj zakres pomiarowy uzywany w fotografii,
    i niekoniecznie sie w nim miesci monitor wyswietlajacy prostokat
    jasnosci 1 oraz 0 (z 256).

    To jakis fotopowielacz pewnie musialby byc ... i wtedy moglby
    zmierzyc, ze ten jeden stopnien jasnosci to hoho- pare ev dzieli.

    >A propos... przypomniałem sobie dyskusję o jasnościach sceny. Przed
    >chwilą wykonałem podobne zdjęcie do omawianego kiedyś tam:
    >https://drive.google.com/file/d/1R8-cjg98tXk_fthiIe
    _nWsTzKvnZbpG5/view?usp=sharing
    >Pomierzyłem jasności w luxach swoim światłomierzem. Tryb kierunkowy
    >wybrałem. Wyszły mi wyniki zupełnie inne niż wyczytałeś gdzieś tam.
    >Ściana ma 110lux, krzaki 1600 lux a niebo 4800 lux.

    Lux to nie cd/m^2, ale te 4800 wyglada na podobnego rzedu co 7 tys.
    Twoj swiatlomierz dokladnie luxy mierzy, czy tylko wtedy, jesli go
    skierujesz na szarą kartę ?

    Ale nie robmy tu klotni - Ty go skieruj na monitor wyswietlajacy bialy
    kolor ... i napisz co on zmierzyl.
    Bedzie 4000, 400, czy np 200 ?

    To tak w kwestii czy rozjasniony monitor moze byc rownie jasny jak
    niebo :-)

    No i oczywiscie na oko to sciana byla calkiem jasna ?
    Tak to z okiem jest - 44x, ~5ev roznicy, a widzi jedno i drugie jasno.

    Ale powiesilem sobie kalendarz w oknie ... literki przy krawedzi na
    tle nieba jakies gorzej czytelne.

    A w dodatku mam go na szybie, wiec jest chyba lepiej oswietlony niz te
    110 lux, bo z boku prostopadle kawalki scian ..

    >> Mi tylko chodzi o to, ze powinienes dopatrzec sie czegos na
    >> parapecie ...
    >> no dobra - byloby dopatrywanie sie w bardzo ciemnych partiach, a na
    >> oko to pewnie widziales go calkiem jasno.

    >I o to właśnie chodziło - całkiem jasno. A w 14-bitowej matrycy
    >musiałbym HDRa składać by podobnie widzieć.

    Bez HDR tez sporo sie dalo wydobyc.
    Pozostaje wsadzic bilet do szpary :-)

    >>> To dlatego, że masz paradoksalnie kiepski monitor.
    >> Ale za to typowy :-)

    >6 bitów w lapku, to już nie jest typowy :-)

    Jest najwyrazniej 8 bitow, ale skrajne ciemne juz czarne.

    >I jako ciekawostka: aby na typowych monitorach, typowi oglądacze nie
    >powiedzieli na zdjęcie: ble, trzeba je mocno zdewastować:
    >1. Przekolorować.
    >2. Jeśli dominują ciemne kolory: zredukować dynamikę do 7-bitów w
    >kierunku jasnych.

    No widzisz - zrobilem :-)

    >3. Przekontrastować.

    >Wtedy procent zadowolonych do niezadowolonych mocno wzrasta. I co
    >jeszcze ciekawsze, Ci niezadowoleni czasem krytykują tak zniszczone
    >zdjęcia jako ... zbyt dobre. To cytat.

    Bo takie jakies ... sztuczne :-)

    Albo maja lepsze monitory. I przyzwyczajeni sa do swoich fotek, bez
    ulepszen :-)

    >>> Bo nie ma detektora śniegu. Czym śnieg różniłby się od szarej
    >>> ściany?
    >
    >> To po co mu te tysiace scen do dopasowania, skoro ich pewnie tez
    >> moze wykryc ?

    >M.in. po to by balans bieli umieć wykryć.

    No, balans bieli to jest dla mnie tajemnica.
    Jak wyszukac w obrazie to, co powinno byc biale ... a jak tam nic
    bialego nie ma ?

    >Po to by umieć optymalną dla oka jasność ustawić i pewnie jeszcze
    >coś. To nie tylko matematyka ale i "doświadczenia" takie jak my
    >zbieramy. W końcu nie widzimy na pomarańczowo w oświetleniu żarowym.
    >Aparat jakoś musi się dowiedzieć, że jest w pokoju, w którym żarówki
    >są.

    No i widzisz - w tym pierwszym Nikonie FA przeanalizowano tysiace
    zdjec, po to aby napisac jeden algorytm dla 5 fotodiod ...

    >>> Raz jeszcze: popatrz na śnieg przez rurkę a potem na ścianę.
    >>> Spróbuj odróżnić. Zrb to o różnych porach dnia i nocy.
    >
    >> Jak sie ma tysiace scen, to mozna miec kilka ze sniegiem o roznych
    >> godzinach :-)
    >Powodzenia.

    No to do d* z tymi scenami :-)

    A poderzewam, ze aparat nie ma tysiecy, predzej kilkadziesiat.

    >>> Aparat patrząc na śnieg obniża czułość tak, aby wyszła ok właśnie
    >>> 18% szarości. Dlatego staje się on szary.
    >
    >> O ile pamietam, to te karte wymyslono, bo skora bialego czlowieka
    >> odbija 18%, wiec do niej dobierano oswietlenie.

    >Możliwe, nie jest to istotne. W każdym razie posługując się tą kartą
    >wykonasz zdjęcie z bardzo dobrze dobraną ekspozycją, zarówno na
    >śniegu jak i ciemnoszarej ściany. Znika problem "szarego śniegu".

    >> Ale chyba cos zle pamietam
    >> https://en.wikipedia.org/wiki/Zone_System

    >Nie będę komentował, bo nie wiem jak to się ma do współczesności.

    Obawiam sie, ze nadal sie tego trzymaja ... nawet, jesli to juz troche
    przestarzale dla wspolczesnych aparatow.

    Bo wytlumacz tu profesjonalistom, ze masz dwie szare karty, analogową
    i cyfrową :-)

    >> Tak sie domyslam, ze jak uruchomisz program i wczytasz tego ARW bez
    >> ruszania czegokolwiek, to parapet bedzie czarny.
    >
    >> No chyba, ze program pamieta ostatnie parametry konwersji ... a nie
    >> ma jakiegos przycisku "reset to default" ?

    >Hę?? Nie wiem o czym piszesz. Ja robię zdjęcia w trybie manualnym. Z
    >automatyki korzystam, gdy nie można inaczej.

    Ale jak mowie o ustawieniu programow.

    Ustawiasz ekspozycje manulnie, aparat robi zdjecie (a tu jestem mocno
    ciekaw, czy sie jednak jakas automatyka nie wlacza, przynajmniej
    czesciowo),
    a potem sobie ogladasz RAW ... no i jakies parametry do konwersji
    przeciez sa przyjete, programista ustawil.

    J.

strony : 1 ... 10 ... 23 . [ 24 ] . 25 ... 29


Szukaj w grupach

Szukaj w grupach

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: