eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plGrupypl.rec.foto.cyfrowahdr a JpgRe: hdr a Jpg
  • Path: news-archive.icm.edu.pl!news.gazeta.pl!newsfeed.pionier.net.pl!news.nask.pl!new
    s.nask.org.pl!news.cyf-kr.edu.pl!news.ceti.pl!not-for-mail
    From: "Stefan Nawrocki" <o...@3...com.pl>
    Newsgroups: pl.rec.foto.cyfrowa
    Subject: Re: hdr a Jpg
    Date: Thu, 12 Mar 2009 11:59:53 +0100
    Organization: CETI S.C. (Krakow, Poland)
    Lines: 66
    Sender: <radiusok>@<unknown>
    Message-ID: <gpaptq$180m$1@alfa.ceti.pl>
    References: <f...@a...googlegroups.com>
    NNTP-Posting-Host: 83-145-183-63.cable-modem.tkk.net.pl
    X-Trace: alfa.ceti.pl 1236855546 40982 83.145.183.63 (12 Mar 2009 10:59:06 GMT)
    X-Complaints-To: a...@t...ceti.pl
    NNTP-Posting-Date: Thu, 12 Mar 2009 10:59:06 +0000 (UTC)
    X-Priority: 3
    X-MSMail-Priority: Normal
    X-Newsreader: Microsoft Outlook Express 6.00.2800.1933
    X-MIMEOLE: Produced By Microsoft MimeOLE V6.00.2800.1933
    Xref: news-archive.icm.edu.pl pl.rec.foto.cyfrowa:796264
    [ ukryj nagłówki ]


    Wydaje mi się, że różne pojęcia, które w wątku się pojawiają nie do końca są
    dobrze interpretowane.
    Pierwsza sprawa - to liczba bitów przypadająca na składową koloru - czy to
    jest 8, czy 12 - co to tak naprawdę zmienia?
    Jeśli czerń odpowiada poziomowi 0, a biel poziomowi maksymalnemu - zmienia
    się "rozdzielczość", tzn. na ośmiu bitach mamy skalę szarości podzieloną na
    256 kawałków, a na 12 bitach - na 4096. Zarówno jedną skalę, jak i drugą -
    można zobrazować na monitorze (ośmio-bitowym). W pierwszym wypadku będzie to
    odwzorowanie 1:1, czyli każdemu poziomowi szarości z oryginału będzie
    odpowiadał ten sam poziom szarości na monitorze. W drugim wypadku nastąpi
    "kompresja" poziomów (będą one dzielone przez 16, bo 12 bitów daje skalę
    0-4095, a osiem - 0-255), tzn. poziomom od 0 do 15 w oryginale - będzie
    odpowiadał poziom 0 na monitorze, poziomom 16-31 - poziom 1, itd.
    Czy to zmienia "zakres tonalny"? Strata jakości polega na tym, że subtelne
    odcienie szarości w skali 12-bitowej staną się mniej subtelne w skali
    8-bitowej.
    Żeby zwiększyć rzeczywiście zakres tonalny, trzeba mieć przynajmniej dwa
    zdjęcia. Jedno naświetlić tak, żeby czarny odpowiadał poziomowi zero, a
    poziomowi maksymalnemu (255 - w skali 8-bitowej lub 4095 w skali 12-bitowej)
    odpowiadal poziom np. 50% szarości. I drugie zdjęcie - w którym poziomowi 0
    odpowiada 50% szarości, a poziomowi maksymalnemu - odpowiada biel.
    I teraz następuje złożenie tych dwóch zdjeć. W skali ośmiobitowej dostajemy
    zdjęcie, w którym czarnemu odpowiada 0, a białemu - 511, w skali
    dwunastobitowej - czarnemu odpowiada 0, a białemu 8191.
    Oczywiście - można teraz podzielić to przez dwa (wziąć co drugą próbkę) i
    znów mamy 0-255 lub 0-4095. To w czym problem, czemu nie zrobić zdjęcia od
    razu w dostępnej skali? Dzielenie przez dwa - to nic innego jak zmniejszenie
    kontrastu. Matryca musiałaby mieć możliwość rejestracji obrazu z mniejszym
    kontrastem (czyli, żeby czarnemu odpowiadał poziom 0, a białemu - poziom
    maksymalny, tymczasem - matryca osiąga poziom maksymalny już przy np. 50%
    szarości, a jeśli przesuniemy skalę - to z kolei wartość maksymalna
    odpowiada białemu, ale brakuje czerni). Prawdziwym ograniczeniem zakresu
    tonalnego są fizyczne ograniczenia matrycy, a nie skala w jakiej
    zarejestrujemy to, co z niej wyjdzie.

    I druga sprawa - tak sklejona skala szarości podzielona przez odpowiedni
    współczynnik da się zobrazować na monitorze 8-bitowym, a straty będą
    polegały na utracie liczby dostępnych poziomów.
    Tak wygląda most na tym etapie:
    http://www.3n.com.pl/Nikon/most_1.jpg
    Jednak uzyskany obraz nie jest "dobry". Tzn. - tu pewnie będą dyskusje.
    Jedni będą uważali, że tak ma być, że dalsza ingerencja powoduje
    nienaturalność, itp. Inni z kolei będą "podkręcali" obraz. To jest kwestia
    uznania, co się komu podoba.
    W grę zaczyna wchodzić mechanizm widzenia. Nie odbieramy kolorów czy
    szarości jako wartości bezwzględne, ale jako wzajemne relacje. I tu zaczyna
    działać "mapowanie tonów", które powoduje lokalne podnoszenie (lub
    obniżanie) nasycenia kolorów (lub szarości), aby wywołać odpowiednie
    wrażenie u widza. Mapowanie tonów można przeprowadzić dla jednego zdjęcia,
    jednak mając kilka zdjęć i przeprowadzając mapowanie na etapie konwersji z
    "większej" skali na "mniejszą" program mapujący ma więcej danych do
    "mapowania" i może to zrobić "lepiej" (choć jest to pojęcie względne, bo wg
    niektórych - taki "zmapowany" obraz jest właśnie "gorszy" - co było widać w
    wypowiedziach wyżej w tym wątku).

    Tak ja to widzę - oczywiście - chętnie podyskutuję, jeśli ktoś ma inne
    zdanie.


    Pozdrawiam
    Stefan Nawrocki
    http://foto.3n.com.pl



Podziel się

Poleć ten post znajomemu poleć

Wydrukuj ten post drukuj


Następne wpisy z tego wątku

Najnowsze wątki z tej grupy


Najnowsze wątki

Szukaj w grupach

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: