eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plGrupypl.misc.elektronikaSzumyRe: Szumy
  • Data: 2017-04-10 18:12:06
    Temat: Re: Szumy
    Od: bartekltg <b...@g...com> szukaj wiadomości tego autora
    [ pokaż wszystkie nagłówki ]

    On 08.04.2017 12:56, Piotr Gałka wrote:
    > W dniu 2017-04-08 o 00:40, bartekltg pisze:
    >>
    >> Pewine kiedyś miałęm problem z tranfurier(delta(funkcja_o_znanym_TF))
    >> i zapamietalem, gdzie szukać rozwiązań;-)
    >>
    > Kiedyś dawno (+-85r) podłączyłem do Commodore-64 przetwornik A/C i
    > rejestrowałem próbki mowy. Próbkowanie 8kHz, próbki 8-bitowe. Dawało się
    > nagrać około 3s mowy. Napisałem (w Basicu) FFT i po przetworzeniu
    > takiego zestawu próbek (trwało chyba z minutę) przedstawiałem rozkład
    > widma mowy w funkcji czasu (takie pagórki pseudo 3D).
    > Dalekosiężny cel - komputerowe rozumienie mowy. Na konferencji Teorii
    > Sygnałów i Obwodów jakiś matematyk (pamiętam go z tego, że swoje
    > wystąpienie zaczął od tego, że nie będzie stosował liniowych
    > aproksymacji czegokolwiek, bo wszystko jest nieliniowe - i to chyba było

    Pewnie tranfuriera uzywał, a on linowy. Ale wynik 0.5 'a' + 0.5 'c'
    byłby jednak cieżki do zinterpretowania.


    Rozmawia dwóch matematyków/fizyków
    - Dzielenie matematyki na liniową i nieliniową jest głupie, to jak
    dzielenie wszechświata na banonowy i niebabanowy.
    - No niby tak. Chociaż z drugiej strony, większość obiektów we
    wszechświecie nie ma bananowego przybliżenia pierwszego stonia.


    > ostatnie zdanie z jego wykładu jakie zrozumiałem) stwierdził, że to co
    > robię nie ma żadnego sensu, bo czas reakcji komputera będzie za długi.
    > Argument, że wydajność komputerów będzie szybko rosła do niego nie
    > docierał.

    Myślałem na poczatku, że miał rację, ale wiki twierdzi, że komercyjne
    systemy rozpoznawania mowy pojawiły się w okolicach 1990, ktoś więc
    w 1985 też nad tym prcował;)
    Nie mówiąc, żę , znów wg internetów, DARPA sypała na to kasę od lat
    70tych.


    >>> Ja potrafię tylko "na chłopski rozum".
    >>> Sumowanie/odejmowanie próbek rozszerza zakres trafiania do -2..2.
    >>> Skoro a ma rozkład równomierny
    >>
    >> a_i
    >>
    >>> to w górne 10% trafia statystycznie co 10
    >>> próbka. A jak często w górne 10% trafią dwie kolejne próbki?
    >>
    >> Dwie kolejne a_i są niezależna, więc mnozysz prawdopodobienstwa,
    >> wychodzi 1%.
    >>
    > Kilka lat temu złapałem się na tym, że jest pewien rodzaj zadań na
    > prawdopodobieństwo warunkowe przy których moja intuicja (czyli metoda
    > "na chłopski rozum") zawodzi.
    > Nie zadałem sobie dość trudu, aby naprawić moją intuicję :).

    Warunkowe moze skołować, a co dopiero wzorek/twierdzenie Bayesa ;-)

    Tu akurat z tymi kwadratami jesteśmy kryci, bo to nie tylko intuicja,
    ale odprysk od prawdziwego rachunku prawdopodobieństwa, jak robią go
    matematycy (teorii miary), nazywa się toto prawdopodobieństwo
    geometryczne.
    Póki przestrzeń zdarzeń jest ciągłą i podobna do prostej(odcinka),
    płaszczuyzny, przestrzeni czy jakiegoś podzbioru dowolnego R^n, to
    patrzenie na objętość dozwolonej przestrzeni zdarzeń / łączna objetosc
    jest w pełni ścisłe.


    > Nauczony tym doświadczeniem podchodzę ostrożnie do wszystkiego, gdzie
    > mam choćby cień wątpliwości.

    W sumie moze słusznie.
    Patrzac np tutaj ;-)
    https://theconversation.com/paradoxes-of-probability
    -and-other-statistical-strangeness-74440


    > Zgodzę się z tym, że dla _każdej_konkretnej_ pary jest 1%. Gdyby b_i
    > było sumą par i miało dwa razy niższą częstotliwość (dane a_i jest
    > wykorzystywane tylko raz) nie miałbym żadnych wątpliwości co do
    > częstotliwości pojawiania się b_i w górnych 10% wartości.
    > Ale dane a_i jest wykorzystywane w dwu kolejnych b_i. Więc b_i+1 nie
    > jest niezależne od b_i. Ten brak niezależności powoduje, że mam cień
    > wątpliwości. Nie wiem jak ten cień pogodzić z tym, że przecież dla
    > _każdej_ b_i jest 1%.
    > Ale usuwanie tego cienia wątpliwości nie jest teraz moim priorytetem.

    Czyli pytasz, ile b_i w całym ciagu długośći N wyląduje w górnych 10%?

    2%
    Tyle samo co c_i i tyle samo, co przy pojedynczym b/ci tworzonym
    niezależnie. Tu akurat niezależność nie gra roli (też się zdziwiłem).

    Jak mi komputer wypluł wyniki (octave)
    N=10000000;
    r = 1-2*rand(N,1);
    bi = r(1:end-1)+r(2:end);
    ci = r(1:end-1)-r(2:end);
    sum(bi> 2 - 4*1/10)/N
    sum(ci> 2 - 4*1/10)/N

    ale po zastanowieniu, tak musi być. Każda para pracuje na tę średnią
    niezależnie. Gdyby tam był jakiś ilczyn, byłoby inaczej.

    > pzdrbartekltg


Podziel się

Poleć ten post znajomemu poleć

Wydrukuj ten post drukuj


Następne wpisy z tego wątku

Najnowsze wątki z tej grupy


Najnowsze wątki

Szukaj w grupach

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: