eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plGrupypl.comp.programmingCiekawy program...Re: Ciekawy program...
  • Data: 2013-02-18 13:39:04
    Temat: Re: Ciekawy program...
    Od: Edek Pienkowski <e...@g...com> szukaj wiadomości tego autora
    [ pokaż wszystkie nagłówki ]

    Dnia Sun, 17 Feb 2013 20:06:01 -0800, M.M. wyszeptal:

    > W dniu poniedziałek, 18 lutego 2013 03:34:05 UTC+1 użytkownik Edek Pienkowski
    napisał:
    >> Dnia Sun, 17 Feb 2013 18:18:01 -0800, M.M. wyszeptal:

    >> >> Wyszłoby to co opisałeś: miałbyś statystykę, który wyraz
    >> >> występuje częściej po innym wyrazie niż inny. Do
    >> >> uczenia gramatyki jest daleko, od semantyki dzieli przepaść.
    >> > Niestety to prawda.
    >
    >> Prawda: to znaczy co jest prawdą?
    > Prawdą jest że do uczenia gramatyki/semantyki pozostał przepaść.
    > Niemniej z czystej ciekawości chciałbym zobaczyć jak się
    > uczy taki prosty program.

    Nie uczy się tego akurat najczęściej, bo reguły gramatyczne
    są znane i proste do zahardkodowania.

    >> Metody probabilistyczne
    >> jak najbardziej działają, tyle że to był trywialny przykład.
    >> Lepszym modelem uczenia struktury są hidden markov chains.
    > Na czym polega ta technika tak na chłopski rozum? Strzelam: rzutuje
    > się frazy na jakieś stany i potem prawdopodobieństwo że wyraz
    > xxx tłumaczy się jako yyy jeśli poprzednie stany były sss ?

    Reprezentuje takie reguły jak to, że w języku angielskim
    czasownik po czasowniku oznacza a) formę gramatyczną, b)
    jak w większości języków jeden z czasowników jest czynnością
    będącą obiektem drugiej czynności: "przestał ciągnąć Jasia za
    nogę" c) koljeny czasownik ropoczyna kolejne zdanie podrzędne.

    Raczej nie technika, a wynik badań kilkulatków. Sam model
    nie załatwia wszystkiego - język jest bardzo mocno powiązany
    ze znaczeniem, w tym tak prymitywnym jak obiekt lub dwa lub
    trzy i czynność. Ma to związek zarówno z ewolucją języka
    jak i jego nauką - dwie strony tej samej monety.

    Implementując najczęściej używa się WordNet - wyrazy pogrupowane
    w rzeczowniki, czasowniki, przymiotniki i przysłówki, plus odrobinę
    informacji o wiązaniu gramatycznym, co pośrednio oddaje część
    prymitywnej semantyki (obiekt, dwa lub trzy). Uczenie się
    świata na podstawie pierwszych obiektów ("maaama: pilkaaa")
    zajęłoby za długo. Uczenie się gramatyki prawdopodobnie też.
    WordNet plus kilka reguł gramatycznych pozwala na rozbiór
    gramatyczny zdania, od dawna.

    Watson używa WordNet, a do semantyki ontologii, jeżeli od pewnego
    momentu potrafi z języka pisanego rozbudowywać własne (doczytam
    linki w wiki) to te pierwsze plus ustrukturyzowa wiedza
    dają w swoistym sensie bootstrap.

    --
    Edek

Podziel się

Poleć ten post znajomemu poleć

Wydrukuj ten post drukuj


Następne wpisy z tego wątku

Najnowsze wątki z tej grupy


Najnowsze wątki

Szukaj w grupach

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: