-
Data: 2010-09-03 10:41:50
Temat: Re: No to koniec lustrzanek...
Od: Sergiusz Rozanski <w...@s...com> szukaj wiadomości tego autora
[ pokaż wszystkie nagłówki ]Dnia 03.09.2010 Eneuel Leszek Ciszewski <p...@c...fontem.lucida.console>
napisał/a:
>
>> Zależy jakie DR uważamy za H ;) no i pozostaje jeszcze ciągłość
>> tych danych o czym poniżej.
>
> Większe od możliwości matrycy. Na papierze każde zdjęcie ma tę samą
Nie, HDR to nie jest HDRoM (over matrix), pytanie: co oznacza H,
jeśli H<możliwość matrycy wtedy HDR robimy 1 klatką, jeśli H>możliwości
matrycy, musimy mieć więcej niż jedną. Technika HDR nie mówi jakie
ma być to H, chodzi o upakowanie wysokiej dynamiki w małą, do czego
służy liniowa (lub nieliniowa) kompresja. Póki jest liniowa, to
HDR możemy uzyskać zwiekszając dynamikę matrycy, dla nieliniowej
niestety musi ją dodać fotograf wg swojej wizji pracy w postprocesie,
np umieścić w 1 zakresie dynamiki dwie różne - tak jak to zrobi
oko w naturze - i zmieścić to na 1 kartke/ekran.
>> ale już w procesie wywoływania odpowiednią krzywą idzie tak postawić, że uzyskamy
>> HDR, jak skompresujemy całą matryce 14bit w 8bit jpg to wywalimy detale ale
>> zyskamy cały zakres, zależy to tylko od intencji fotografa w procesie wywoływania,
>> podobnie się przecież robiło na powiększalniku, jak był widoczek nieba i się
>> na linii horyzontu przykrywało np na połowę czasu naświetlania tak, aby zmieścić
>> chmurki i budynki :)
>
> Dynamiki filmu/kliszy nie poprawisz tym sposobem.
Ale zmieszcze ją całą na gorszym nośniku (plik/papier) kosztem detali.
>> I tu dochodzimy do właściwej interpretacji. Mając dane o szerokim zakresie
>> tonalnym (nie ważne czy z 1 klatki nowoczesnej matrycy czy z kilku klatek
>> posklejanych) możemy nałożyć różne krzywe na różne obszary, co pozwala
>> nam upakować np niebo w ten sam zakres tonalny co wieże i tak właśnie
>> widzi oko obserwując ten obrazek manewrując źrenicą. Na 1 papier/ekran
>> tego nie upchamy w skali ciągłej, ale możemy sobie pozwolić na urwanie
>> ciągłości na rzecz 2 krzywych, symulując działanie oka.
>
> Niby tak, ale nie zobaczymy ,,suwaczkami'' tego, czego nie ma na obrazie
> zarejestrowanym przez matrycę. :)
Tak jak nie zobaczymy nawet robiąc 15 zdjęć, gdy tam czegos nie ma to nie ma
HDR to nie 'technika powiększania możliwości matrycy', ale algorytmy kompresji
dynamiki - dla liniowej, lub sztuka kompresji nieliniowej, bo to już jest praca
jakby nie patrzeć artystyczna - wybieramy obszary dynamiki i je nieliniowo
łączymy.
Rózwnie dobrze ze zdjęcia 2EV mogę wyjąć 2 odbitki o zakresie 1ev i je połączyć
w jedną o zakresie 1ev stosując cos jak taką krzywą:
/| /
/ | /
/ | /
/ |/
jak w cieniach będzie wieża, a w światłach chmury to je dodam i z 2ev mam hdr :)
I to będzie taki iphonowy hdr, bo pewnie on ma taką dynamikę matrycy ;)
>
> Chcesz uzyskać nie HDR, ale efekty uboczne towarzyszące HaDRowaniu. :)
> Nie zależy Ci na szerokim kącie widzenia, ale na skrzywieniu perspektywicznym. :)
To nie efekty uboczne, ale możliwość oddania obrazu świata tak jak widzi go oko:
Obserwujesz kadr swoimi oczami i patrząc na niebo widzisz chmury bo Ci mózg
zamknie źrenice, jak spojżysz na wieże to Ci otworzy źrenice abyś tam mógł
dojrzeć szczegóły - efekt w muzgu: widzę 20ev ale mam zaj... oczy, a g. prawda.
Teraz aby ww. to przenieść na papier musisz zfocić to 20ev (nie ważne czy masz
eosa 5mark15 i on ma 20ev) czy zrobisz 3 zdjęcia 50d, masz "dane na 20ev") i
to spłaszczasz na papier materiał który oddaje np 3ev, przy czym musisz zrobić
to co zrobi mózg (spłaszyć to nieliniowo), bo oko na 1 zdjęciu od muzgu nie
dostanie info o koniecznej zmianie źrenicy - musisz ten efekt symulować na
nośnik.
--
"A cóż to za sens kupować samochód, żeby jeździć po asfalcie?
Tam, gdzie jest asfalt, nie ma nic ciekawego, a gdzie jest
coś ciekawego, tam nie ma asfaltu".
Strugaccy - Poniedziałek zaczyna się w sobotę.
Następne wpisy z tego wątku
- 03.09.10 12:33 Eneuel Leszek Ciszewski
- 03.09.10 16:51 kamil
- 03.09.10 17:31 Sebastian Nibisz
- 03.09.10 17:51 Sebastian Nibisz
- 03.09.10 18:08 JA
- 03.09.10 18:21 Sebastian Nibisz
- 03.09.10 20:32 JA
- 03.09.10 20:43 Sebastian Nibisz
- 03.09.10 20:58 Eneuel Leszek Ciszewski
- 03.09.10 21:11 Eneuel Leszek Ciszewski
- 03.09.10 21:33 Sebastian Nibisz
- 03.09.10 21:57 Sebastian Nibisz
- 03.09.10 22:05 Eneuel Leszek Ciszewski
- 03.09.10 22:13 JA
- 03.09.10 22:43 Sebastian Nibisz
Najnowsze wątki z tej grupy
- Nikon D5500 i wyzwalanie migawki
- Canon 550D
- EOS 600D i balans bieli w filmach
- EOS 90D i sentymenty
- Skanowanie: Canon MG2550S vs HP OfficeJet 6950
- czas exif a czas modyfikacji pliku
- karta SD po formacie odzyskiwanie zdjęć i filmów
- Chess
- Vitruvian Man - parts 7-11a
- Eltec nie zyje?
- Steve McCurry
- Light - lajkowe klasyki od Chinczykow
- Forum o Sony serii A (alfa)?
- obrobka RAW na konputerze
- Sklejanie bracketowanych JPGów
Najnowsze wątki
- 2024-11-27 Re: UseGalileo -- PRODUKTY I APLIKACJE UŻYWAJĄ JUŻ DZIŚ SYSTEMU GALILEO
- 2024-11-27 Re: UseGalileo -- PRODUKTY I APLIKACJE UŻYWAJĄ JUŻ DZIŚ SYSTEMU GALILEO
- 2024-11-28 droga laweta
- 2024-11-28 Co tam się odpierdala w tej Warszawie?
- 2024-11-28 skąd się biorą tacy debile?
- 2024-11-28 JDG i utylizacja sprzetu
- 2024-11-27 Identyfikacja układ SO8 w sterowniku migających światełek choinkowych
- 2024-11-28 Katowice => Technical Artist <=
- 2024-11-28 Katowice => Technical Artist <=
- 2024-11-28 Bydgoszcz => QA Engineer <=
- 2024-11-28 Zielona Góra => Spedytor międzynarodowy <=
- 2024-11-28 Kraków => DevOps Engineer (Junior or Regular level) <=
- 2024-11-27 Warszawa => Analityk Biznesowo-Systemowy <=
- 2024-11-27 Zielona Góra => Senior PHP Developer <=
- 2024-11-27 Warszawa => Senior Java Developer <=