eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plGrupypl.comp.programmingCiekawy program...Re: Ciekawy program...
  • Path: news-archive.icm.edu.pl!agh.edu.pl!news.agh.edu.pl!newsfeed2.atman.pl!newsfeed.
    atman.pl!.POSTED!not-for-mail
    From: Edek Pienkowski <e...@g...com>
    Newsgroups: pl.comp.programming
    Subject: Re: Ciekawy program...
    Date: Mon, 18 Feb 2013 02:34:05 +0000 (UTC)
    Organization: ATMAN - ATM S.A.
    Lines: 45
    Message-ID: <kfs3ut$bm0$1@node2.news.atman.pl>
    References: <552r54uih227$.1sjw2dke9nhql.dlg@40tude.net>
    <3...@g...com>
    <k...@4...net>
    <0...@g...com>
    <kfbok8$nad$1@mx1.internetia.pl>
    <1...@g...com>
    <kfbvf0$mdr$2@somewhere.invalid>
    <4...@g...com>
    <kfo51r$kik$2@node1.news.atman.pl>
    <b...@g...com>
    <kfs14f$9tk$1@node2.news.atman.pl>
    <2...@g...com>
    NNTP-Posting-Host: 77-255-207-227.adsl.inetia.pl
    Mime-Version: 1.0
    Content-Type: text/plain; charset=ISO-8859-2
    Content-Transfer-Encoding: 8bit
    X-Trace: node2.news.atman.pl 1361154845 11968 77.255.207.227 (18 Feb 2013 02:34:05
    GMT)
    X-Complaints-To: u...@a...pl
    NNTP-Posting-Date: Mon, 18 Feb 2013 02:34:05 +0000 (UTC)
    User-Agent: Pan/0.139 (Sexual Chocolate; GIT bf56508 git://git.gnome.org/pan2)
    Xref: news-archive.icm.edu.pl pl.comp.programming:202077
    [ ukryj nagłówki ]

    Dnia Sun, 17 Feb 2013 18:18:01 -0800, M.M. wyszeptal:

    > W dniu poniedziałek, 18 lutego 2013 02:45:52 UTC+1 użytkownik Edek Pienkowski
    napisał:
    >> > Bo to prosty, przejrzysty model, który bywa skuteczny i
    >> > nie wymaga koszmarnej mocy obliczeniowej. Np. w takim
    >> > tłumaczeniu kontekstowym można obliczyć jak często wyraz
    >> > xxxx tłumaczył się na wyraz aaaa, jak często
    >> > na wyraz bbbb, itd. Jeśli są dane i są zasoby obliczeniowe to
    >> > można policzyć warunkowo jak często wyraz xxxx tłumaczył
    >> > się na aaaa jeśli poprzedza go wyraz yyyy. Natomiast tak
    >> > uzyskane prawdopodobieństwa można spróbować podać sieci
    >> > na wejście... ciekawe coby wyszło.
    >>
    >> Wyszłoby to co opisałeś: miałbyś statystykę, który wyraz
    >> występuje częściej po innym wyrazie niż inny. Do
    >> uczenia gramatyki jest daleko, od semantyki dzieli przepaść.
    > Niestety to prawda.

    Prawda: to znaczy co jest prawdą? Metody probabilistyczne
    jak najbardziej działają, tyle że to był trywialny przykład.
    Lepszym modelem uczenia struktury są hidden markov chains.

    Człowiek wraz z kontekstem słownym - jeśli
    > tak można nazwać, pamięta kontekst okolicznościowy. Aby taka
    > metoda mogła sensownie zadziałać, a nie tylko (w razie
    > jakiegoś minimalnego powodzenia) stanowić skompresowaną
    > bazę danych, program na wejście musiałby otrzymać także
    > pojęcia jakie kryją się pod poszczególnym frazami. A może
    > przy dostatecznej ilość danych sam jest w stanie wytworzyć
    > pojęcia.

    Program jeżeli miałby modelować naturę miałby niewiele "na
    wejściu", modelować można proces uczenia. W przeciwnym
    wypadku trzeba uznać, że dowolny człowiek od urodzenia
    miałby w głowie takie pojęcia jak "katalizator",
    "syrop wyksztuśny" czy "gwiazda poranna". Wraz z kontekstem
    okolicznościowym rzecz jasna.

    > Hmmmm, straciłem pewność.

    Ja za to prawie z krzesła już spadam. Pora opuścić usenet na dzisiaj.

    --
    Edke

Podziel się

Poleć ten post znajomemu poleć

Wydrukuj ten post drukuj


Następne wpisy z tego wątku

Najnowsze wątki z tej grupy


Najnowsze wątki

Szukaj w grupach

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: