eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plGrupypl.comp.programmingCiekawy program... › Re: Ciekawy program...
  • Data: 2013-02-18 05:06:01
    Temat: Re: Ciekawy program...
    Od: "M.M." <m...@g...com> szukaj wiadomości tego autora
    [ pokaż wszystkie nagłówki ]

    W dniu poniedziałek, 18 lutego 2013 03:34:05 UTC+1 użytkownik Edek Pienkowski
    napisał:
    > Dnia Sun, 17 Feb 2013 18:18:01 -0800, M.M. wyszeptal:
    >
    >
    >
    > > W dniu poniedziałek, 18 lutego 2013 02:45:52 UTC+1 użytkownik Edek Pienkowski
    napisał:
    >
    > >> > Bo to prosty, przejrzysty model, który bywa skuteczny i
    >
    > >> > nie wymaga koszmarnej mocy obliczeniowej. Np. w takim
    >
    > >> > tłumaczeniu kontekstowym można obliczyć jak często wyraz
    >
    > >> > xxxx tłumaczył się na wyraz aaaa, jak często
    >
    > >> > na wyraz bbbb, itd. Jeśli są dane i są zasoby obliczeniowe to
    >
    > >> > można policzyć warunkowo jak często wyraz xxxx tłumaczył
    >
    > >> > się na aaaa jeśli poprzedza go wyraz yyyy. Natomiast tak
    >
    > >> > uzyskane prawdopodobieństwa można spróbować podać sieci
    >
    > >> > na wejście... ciekawe coby wyszło.
    >
    > >>
    >
    > >> Wyszłoby to co opisałeś: miałbyś statystykę, który wyraz
    > >> występuje częściej po innym wyrazie niż inny. Do
    > >> uczenia gramatyki jest daleko, od semantyki dzieli przepaść.
    > > Niestety to prawda.

    > Prawda: to znaczy co jest prawdą?
    Prawdą jest że do uczenia gramatyki/semantyki pozostał przepaść.
    Niemniej z czystej ciekawości chciałbym zobaczyć jak się
    uczy taki prosty program.

    > Metody probabilistyczne
    > jak najbardziej działają, tyle że to był trywialny przykład.
    > Lepszym modelem uczenia struktury są hidden markov chains.
    Na czym polega ta technika tak na chłopski rozum? Strzelam: rzutuje
    się frazy na jakieś stany i potem prawdopodobieństwo że wyraz
    xxx tłumaczy się jako yyy jeśli poprzednie stany były sss ?

    > > Człowiek wraz z kontekstem słownym - jeśli
    > > tak można nazwać, pamięta kontekst okolicznościowy. Aby taka
    > > metoda mogła sensownie zadziałać, a nie tylko (w razie
    > > jakiegoś minimalnego powodzenia) stanowić skompresowaną
    > > bazę danych, program na wejście musiałby otrzymać także
    > > pojęcia jakie kryją się pod poszczególnym frazami. A może
    > > przy dostatecznej ilość danych sam jest w stanie wytworzyć
    > > pojęcia.


    > Program jeżeli miałby modelować naturę miałby niewiele "na
    > wejściu", modelować można proces uczenia. W przeciwnym
    > wypadku trzeba uznać, że dowolny człowiek od urodzenia
    > miałby w głowie takie pojęcia jak "katalizator",
    > "syrop wyksztuśny" czy "gwiazda poranna". Wraz z kontekstem
    > okolicznościowym rzecz jasna.
    Człowiek od urodzenia nie ma tych pojęć w głowie, ale pamięć
    szybko je chłonie. W sumie obojętnie czy się z nimi rodzi,
    czy się ich uczy, to w końcu ma je w głowie i może na nich
    operować. Reprezentacja pojęć w ludzkim umyśle stanowi jakąś
    niezwykła strukturę. A jaką strukturę może zbudować program,
    który otrzyma na wejście sam tekst? Może być ona podobna
    do tej na jakiej operują ludzie? Wydaje się to niemożliwe,
    ba.... mnie się czasami wydaje, że pojęcia na których operują
    ludzie, wcale nie mieszczą się w głowie.


    > > Hmmmm, straciłem pewność.
    > Ja za to prawie z krzesła już spadam. Pora opuścić usenet na dzisiaj.
    Ja też już ledwo widzę :)

    Pozdrawiam

Podziel się

Poleć ten post znajomemu poleć

Wydrukuj ten post drukuj


Następne wpisy z tego wątku

Najnowsze wątki z tej grupy


Najnowsze wątki

Szukaj w grupach

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: