eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plGrupypl.rec.foto.cyfrowahdr a JpgRe: hdr a Jpg
  • Path: news-archive.icm.edu.pl!newsfeed.gazeta.pl!feed.news.interia.pl!news.cyf-kr.edu
    .pl!news.ceti.pl!not-for-mail
    From: "Stefan Nawrocki" <o...@3...com.pl>
    Newsgroups: pl.rec.foto.cyfrowa
    Subject: Re: hdr a Jpg
    Date: Thu, 12 Mar 2009 15:41:28 +0100
    Organization: CETI S.C. (Krakow, Poland)
    Lines: 69
    Sender: <radiusok>@<unknown>
    Message-ID: <gpb6t8$1ito$1@alfa.ceti.pl>
    References: <f...@a...googlegroups.com>
    <gpaptq$180m$1@alfa.ceti.pl> <gpaqfn$jnr$1@inews.gazeta.pl>
    <gpb2r1$1fls$1@alfa.ceti.pl> <gpb4dl$ck7$1@inews.gazeta.pl>
    NNTP-Posting-Host: 83-145-183-63.cable-modem.tkk.net.pl
    X-Trace: alfa.ceti.pl 1236868841 52152 83.145.183.63 (12 Mar 2009 14:40:41 GMT)
    X-Complaints-To: a...@t...ceti.pl
    NNTP-Posting-Date: Thu, 12 Mar 2009 14:40:41 +0000 (UTC)
    X-Priority: 3
    X-MSMail-Priority: Normal
    X-Newsreader: Microsoft Outlook Express 6.00.2800.1933
    X-MIMEOLE: Produced By Microsoft MimeOLE V6.00.2800.1933
    Xref: news-archive.icm.edu.pl pl.rec.foto.cyfrowa:796321
    [ ukryj nagłówki ]


    Użytkownik "Mateusz Ludwin" <n...@s...org> napisał w wiadomości
    news:gpb4dl$ck7$1@inews.gazeta.pl...
    > Stefan Nawrocki wrote:
    >
    > > Ten fragment nie byl o HDR, ale o tym, że niektórzy sądzą, że zmiana
    liczby
    > > bitów (jpg - 8, RAW - 12) zmienia w istotny sposób zakres tonalny. Tak
    nie
    > > jest.
    >
    > Zmienia - te dodatkowe bity w RAW idą w zakres a nie rozdzielczość. JPG z
    > aparatu ma zwykle 8bitów wyciętych ze środka 12bitowego rawa, a nie
    obciętych
    > przez odrzucenie najmniej znaczących bitów. Dopiero jeśli użyje się
    różnych fill
    > light i recovery, to mamy do czynienia z faktyczną kompresją.

    http://www.optyczne.pl/125-s%C5%82ownik-Zakres_tonal
    ny.html
    Punkt 2 w uwagach na dole.


    > Mapowanie tonów to każde odwzorowanie z przestrzeni tonalnej w przestrzeń
    > tonalną.

    Jeśli "mapowaniem" nazwiemy każde odwzorowanie - to rzeczywiście, jakieś tam
    mapowanie jest. W programamch do obrobki HDR przyjęło się jednak rozdzielać
    dwie fazy. W pierwszej fazie - tworzony jest obraz "surowy" i w drugiej -
    zachodzi właśnie owo mapowanie, W Photomatixie są np. dwie metody mapowania
    (Details Enhancer i Tone Compressor) i są one niezależne od piewszej fazy -
    tworzenia obrazu "surowego".
    Jeśli obraz "surowy" (w którym czarny odpowiada wartości 0, a biały -
    wartości X) znormalizujemy (liniowo) do takiej postaci, w której czarnemu
    odpowiada 0, a białemu 255 - to obraz taki możemy wyświetlić wprost na
    monitorze. Jeśli przekształcenie nie jest liniowe - to też jest (w sensie
    ogólnym) jakieś mapowanie, ale to jest tak samo jakby przekształcić liniowo,
    a potem pokręcić gammą, jasnością i kontrastem. Takie przeksztalcenie działa
    globalnie na cały obraz gdzie każdy piksel jest przetwarzany wg tej samej
    reguły.
    Istotą "mapowania" (takiego jak np. Details Enhancer w Photomatixie) jest
    badanie otoczenia każdego piksela (budowana jest tzw. "maska" i
    przekształcenie jest uzależnione od nasycenia tej maski) i zastosowanie
    innego przekształcenia w zależności od sąsiedztwa. W tym rozwiązaniu piksel
    o jakimś nasyceniu może być inaczej zmapowany w zależności od tego gdzie się
    znajduje na obrazie. W tym sensie mój przykład (i algorytm) tego nie robi.


    > OK, a możesz jakoś opisać to przekształcenie matematycznie, bo ciężko coś
    > wydobyć z tak "ciężkiego" kodu?

    W najprostszym rozwiązaniu dla trzech zdjęć ustalamy dwa poziomy (granice).
    W ostatnim przykładzie granice były ustawione na 150, i 250.
    Tzn. wszystko co jest wewnątrz tej granicy jest brane ze zdjęcia "dobrego".
    Wszystko co powyzej - z niedoświetlonego, wszystko co poniżej - z
    prześwietlonego. Tak wygląda to przeksztacenie:
    http://www.3n.com.pl/Nikon/wynik_2.jpg
    Oczywiście - widać "ostre" granice przejść. Trzeba więc obliczyć "odchyłkę"
    od granicy i w obszarze granicznym połączyć płynnie piksele z obu zdjęć w
    stosunku proporcjonalnym do tej odchyłki. Taka jest idea zaprezentowanego
    algorytmu. Nie ma w nim uzależnienia koloru piksela od koloru sąsiednich
    pikseli, a więc nie ma lokalnego pdobijania (lub zmniejszania) kontrastu
    celem uwypuklenia pewnych obszarów.


    Pozdrawiam
    Stefan Nawrocki



Podziel się

Poleć ten post znajomemu poleć

Wydrukuj ten post drukuj


Następne wpisy z tego wątku

Najnowsze wątki z tej grupy


Najnowsze wątki

Szukaj w grupach

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: