eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plGrupypl.rec.foto.cyfrowahdr a JpgRe: hdr a Jpg
  • Data: 2009-03-12 14:41:28
    Temat: Re: hdr a Jpg
    Od: "Stefan Nawrocki" <o...@3...com.pl> szukaj wiadomości tego autora
    [ pokaż wszystkie nagłówki ]


    Użytkownik "Mateusz Ludwin" <n...@s...org> napisał w wiadomości
    news:gpb4dl$ck7$1@inews.gazeta.pl...
    > Stefan Nawrocki wrote:
    >
    > > Ten fragment nie byl o HDR, ale o tym, że niektórzy sądzą, że zmiana
    liczby
    > > bitów (jpg - 8, RAW - 12) zmienia w istotny sposób zakres tonalny. Tak
    nie
    > > jest.
    >
    > Zmienia - te dodatkowe bity w RAW idą w zakres a nie rozdzielczość. JPG z
    > aparatu ma zwykle 8bitów wyciętych ze środka 12bitowego rawa, a nie
    obciętych
    > przez odrzucenie najmniej znaczących bitów. Dopiero jeśli użyje się
    różnych fill
    > light i recovery, to mamy do czynienia z faktyczną kompresją.

    http://www.optyczne.pl/125-s%C5%82ownik-Zakres_tonal
    ny.html
    Punkt 2 w uwagach na dole.


    > Mapowanie tonów to każde odwzorowanie z przestrzeni tonalnej w przestrzeń
    > tonalną.

    Jeśli "mapowaniem" nazwiemy każde odwzorowanie - to rzeczywiście, jakieś tam
    mapowanie jest. W programamch do obrobki HDR przyjęło się jednak rozdzielać
    dwie fazy. W pierwszej fazie - tworzony jest obraz "surowy" i w drugiej -
    zachodzi właśnie owo mapowanie, W Photomatixie są np. dwie metody mapowania
    (Details Enhancer i Tone Compressor) i są one niezależne od piewszej fazy -
    tworzenia obrazu "surowego".
    Jeśli obraz "surowy" (w którym czarny odpowiada wartości 0, a biały -
    wartości X) znormalizujemy (liniowo) do takiej postaci, w której czarnemu
    odpowiada 0, a białemu 255 - to obraz taki możemy wyświetlić wprost na
    monitorze. Jeśli przekształcenie nie jest liniowe - to też jest (w sensie
    ogólnym) jakieś mapowanie, ale to jest tak samo jakby przekształcić liniowo,
    a potem pokręcić gammą, jasnością i kontrastem. Takie przeksztalcenie działa
    globalnie na cały obraz gdzie każdy piksel jest przetwarzany wg tej samej
    reguły.
    Istotą "mapowania" (takiego jak np. Details Enhancer w Photomatixie) jest
    badanie otoczenia każdego piksela (budowana jest tzw. "maska" i
    przekształcenie jest uzależnione od nasycenia tej maski) i zastosowanie
    innego przekształcenia w zależności od sąsiedztwa. W tym rozwiązaniu piksel
    o jakimś nasyceniu może być inaczej zmapowany w zależności od tego gdzie się
    znajduje na obrazie. W tym sensie mój przykład (i algorytm) tego nie robi.


    > OK, a możesz jakoś opisać to przekształcenie matematycznie, bo ciężko coś
    > wydobyć z tak "ciężkiego" kodu?

    W najprostszym rozwiązaniu dla trzech zdjęć ustalamy dwa poziomy (granice).
    W ostatnim przykładzie granice były ustawione na 150, i 250.
    Tzn. wszystko co jest wewnątrz tej granicy jest brane ze zdjęcia "dobrego".
    Wszystko co powyzej - z niedoświetlonego, wszystko co poniżej - z
    prześwietlonego. Tak wygląda to przeksztacenie:
    http://www.3n.com.pl/Nikon/wynik_2.jpg
    Oczywiście - widać "ostre" granice przejść. Trzeba więc obliczyć "odchyłkę"
    od granicy i w obszarze granicznym połączyć płynnie piksele z obu zdjęć w
    stosunku proporcjonalnym do tej odchyłki. Taka jest idea zaprezentowanego
    algorytmu. Nie ma w nim uzależnienia koloru piksela od koloru sąsiednich
    pikseli, a więc nie ma lokalnego pdobijania (lub zmniejszania) kontrastu
    celem uwypuklenia pewnych obszarów.


    Pozdrawiam
    Stefan Nawrocki



Podziel się

Poleć ten post znajomemu poleć

Wydrukuj ten post drukuj


Następne wpisy z tego wątku

Najnowsze wątki z tej grupy


Najnowsze wątki

Szukaj w grupach

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: