-
X-Received: by 2002:a05:620a:cf3:: with SMTP id c19mr6975074qkj.432.1605789024388;
Thu, 19 Nov 2020 04:30:24 -0800 (PST)
X-Received: by 2002:a05:620a:cf3:: with SMTP id c19mr6975074qkj.432.1605789024388;
Thu, 19 Nov 2020 04:30:24 -0800 (PST)
Path: news-archive.icm.edu.pl!news.icm.edu.pl!newsfeed.pionier.net.pl!2.eu.feeder.erj
e.net!feeder.erje.net!news.uzoreto.com!tr1.eu1.usenetexpress.com!feeder.usenete
xpress.com!tr1.iad1.usenetexpress.com!border1.nntp.dca1.giganews.com!nntp.gigan
ews.com!news-out.google.com!nntp.google.com!postnews.google.com!google-groups.g
ooglegroups.com!not-for-mail
Newsgroups: pl.comp.programming
Date: Thu, 19 Nov 2020 04:30:24 -0800 (PST)
In-Reply-To: <1...@g...com>
Complaints-To: g...@g...com
Injection-Info: google-groups.googlegroups.com; posting-host=178.36.195.82;
posting-account=xjvq9QoAAAATMPC2X3btlHd_LkaJo_rj
NNTP-Posting-Host: 178.36.195.82
References: <rmorh6$cu7$1@dont-email.me> <5f91c6f4$0$503$65785112@news.neostrada.pl>
<rmspap$ps7$1@dont-email.me>
<d...@g...com>
<rmuva3$a2k$1@dont-email.me> <20201023181640.0f3af18f@mateusz>
<6...@g...com>
<20201114202121.0f3b5205@mateusz>
<6...@g...com>
<d...@g...com>
<c...@g...com>
<7...@g...com>
<b...@g...com>
<1...@g...com>
User-Agent: G2/1.0
MIME-Version: 1.0
Message-ID: <7...@g...com>
Subject: Re: Odczyt ciśnienia - analiza obrazu
From: "M.M." <m...@g...com>
Injection-Date: Thu, 19 Nov 2020 12:30:24 +0000
Content-Type: text/plain; charset="UTF-8"
Content-Transfer-Encoding: quoted-printable
Lines: 243
Xref: news-archive.icm.edu.pl pl.comp.programming:215238
[ ukryj nagłówki ]On Wednesday, November 18, 2020 at 11:10:46 PM UTC+1, Maciek Godek wrote:
> środa, 18 listopada 2020 o 21:44:48 UTC+1 M.M. napisał(a):
>
> > Z notatnikiem w ręku nie robiłem pomiarów, ale wychodząc z
> > Twojego założenia o ludzkiej omylności, nie ma sensu robić takich
> > pomiarów, bo bym się pomylił w notowaniu ;-)
> To błędny wniosek.
Żartowałem :)
> Można dokonywać eksperymentów pomimo tego, że się popełnia błędy.
Oczywiście.
> > Kilkoro dzieci uczyłem tabliczki mnożenia, alfabetu i jak się dobrze
> > nauczyły to nie popełniały błędów.
> Nie popełniały błędów na zbiorze trenującym, czy na zbiorze testowym?
W ogóle nie myślałem o podziale na zbiór uczący i testowy gdy przytaczałem
ten przykład.
> > Podobnie jak w recytowaniu wiersza z
> > pamięci - o ile im się chciało i o ile dobrze się nauczyły to powtarzały bez
> > pomyłek.
> Sieć neuronowa, o ile "dobrze się nauczy", też będzie powtarzała bez pomyłek.
Oczywiście, jeśli sztuczną siec neuronową, opartą o klasyczny perceptron
wielowarstwowy,
wyuczymy z dokładnością 100% na danym zbiorze, to będzie dawała poprawne
odpowiedzi z prawdopodobieństwem 100% na tym zbiorze.
> Owe 95% (czy ile tam) skuteczności nie dotyczy powtarzania.
Nie rozumiem.
> Wytrenowana sieć dla tych samych danych wejściowych w 100% razy zwróci te same dane
wyjściowe.
> (w każdym razie dotyczy to sieci bezinercyjnych, takich jak perceptrony)
Oczywiście.
> > Kiedyś amatorsko tresowałem kota, łapał i aportował zabawkę
> > bezbłędnie.
> W jaki sposób mierzyłeś błąd? I na ilu próbach?
Na potrzeby tego o czym pisałem nie ma potrzeby użycia naukowej,
udokumentowanej metody, tym bardziej że jest to tylko analogia.
Dziecko po opanowaniu całego materiału może udzielać bardzo
dokładnych, precyzyjnych odpowiedzi i ta umiejętność nie musi
dziecku niekorzystnie wpłynąć na zdolności generalizowania, abstrahowania.
Sztuczne sieci neuronowe zwykle uczy się tylko do pewnego momentu, aby
nie doszło do przeuczenia. Zwykle lepiej jest gdy sztuczne sieci
neuronowe nie udzielają precyzyjnych odpowiedzi na zbiorze uczącym.
> > Ale powyższy akapit ma się nijak do tego o czym pisałem i nie
> > chce mi się sprawdzać, kiedy dziecko myli się raz na 5 recytacji
> > wiersza, a kiedy raz na 1000 recytacji. Interesuje mnie fakt, że
> > DZIECKO UCZĄC SIĘ DOKŁADNIE (np. tabliczki mnożenia do 10) NIE
> > ZATRACA ZDOLNOŚCI GENERALIZACJI W ZAKRESIE DO 20.
> OK, to tutaj już jest bardziej konkretna hipoteza
Przepraszam że poprzednio napisałem zbyt skrótowo.
> (której chyba nadal nie rozumiem).
> Czyli twierdzisz, że jeżeli dziecko nauczy się na pamięć, ile to jest 6 * 7, to
będzie
> również bez problemu w stanie powiedzieć, ile to jest 13*17?
Nadal nie to chciałem powiedzieć, ale już jesteśmy bliżej sedna. Dziecko może
uczyć się tabliczki mnożenia na pamięć. Nie jest ważne czy to dobra metoda nauki, czy
zła - to po prostu przykład działania biologicznego mózgu w akcji. Dziecko
otrzymuje jeden przykład uczący do nauki, drugi, kolejny. W zależności od tego jakie
to
dziecko i czego uczyło się wcześniej, może znaleźć regułę mnożenia po pamięciowym
opanowaniu mniejszej ilości przykładów, większej, albo w ogóle. Dziecku po
prostu dajemy przykłady do nauki. W przypadku sztucznych sieci neuronowych jest
inaczej. Przed przystąpieniem do uczenia sztucznej sieci, zbiór danych
dzielimy na zbiór uczący i zbiór testowy. Zbiór testowy jest w pewnym sensie
marnowany, ponieważ nie jest przeprowadzana na nim nauka. Niemniej jednak
zbiór testowy jest konieczny, aby móc kontrolować jakość działania sztucznej
sieci neuronowej na przykładach które nie były podawane w trakcie nauki.
Zwykle w trakcie nauki mamy do czynienia ze zjawiskiem przeuczenia, czyli
im sieć daje więcej poprawnych odpowiedzi na zbiorze uczącym, tym mniej na
zbiorze testowym. Zwykle należy przerwać trening sieci w momencie gdy na zbiorze
testowym jest najwięcej poprawnych odpowiedzi. Widać tutaj oczywistą i
sporą wadę w porównaniu z nauką dzieci. Nawet na zbiorze uczącym sieć nie
daje 100% poprawnych odpowiedzi! Minimalnie wypaczając analogię, to tak jakby
uczyć dziecko tylko do momentu gdy udzieli 80% poprawnych odpowiedzi z
tabliczki mnożenia. W sztucznych sieciach neuronowych na bazie 'mojej
autorskiej' struktury danych ten problem nie jest aż tak drastyczny - choć
niestety nadal może się pojawiać. Moje sieci mogą dawać 100% poprawnych i
bardzo precyzyjnych odpowiedzi na dostępnych danych, bez obawy, że znacznie
spadnie skuteczność na danych, których nie było w trakcie uczenia. Problem
przeuczenia w moich sieciach nie jest aż tak dużym problemem.
> > Nie muszę
> > dziecka uczyć tylko 70% przykładów, bo w wieku dorosłym będzie
> > miało z mnożeniem w słupku - to było oczywiste. Tymczasem, sztuczna sieć
> > neuronowa zbudowana w oparciu o klasyczny perceptron wielowarstwowy, ucząc się
> > dokładnie na zbiorze uczącym, zazwyczaj udziela gorszych odpowiedzi na zbiorze
> > testowym. Sztuczne sieci neuronowe zbudowane w oparciu o moją architekturę
> > mają z tym mniej problemów - tak, chwalę się, jestem dalece niedoskonały ;-)
> Ja czasem mam tak, że jak sobie w jesienne wieczory idę przez miasto, to
> niektóre worki na śmieci wypełnione liśćmi mój mózg rozpoznaje jako psy.
> Serio, jestem na jakimś poziomie całkowicie przekonany, że na ulicy leży pies.
> Dopiero jak się wytężę, uświadamiam sobie, że to tylko worek na śmieci.
> Czasem jeżeli nawet kilka dni z rzędu idę przez to samo miejsce, i leży ten
> sam worek, to niezawodnie rozpoznaję w nim dużego śpiącego bernardyna.
Od czasu gdy mój wzrok uległ znacznemu pogorszeniu, bardzo często mam podobne
problemy, aż dziwne, że z takimi zakłóceniami jestem w stanie cokolwiek
rozpoznać. Ale to też odbiega od tematu rozmowy. Raczej chciałem
tutaj powiedzieć, że sieci zbudowane w oparciu o moją architekturę nie
powtarzają błędów, bo można je wyuczyć na maksa na danych rozszerzonych o
przypadki w których pojawiły się błędne odpowiedzi, a problem przeuczenia
nie występuje tak łatwo jak w przypadku sieci zbudowanych w oparciu o
klasyczny (nie)liniowy perceptron wielowarstwowy.
> Na dużych zbiorach danych popełnianie błędów jest niemożliwe do uniknięcia.
Jeśli jakąś przestrzeń mamy gęsto pokrytą danymi (czyli mamy dużo danych i
równomiernie rozłożonych po tej przestrzeni) to jest możliwe wyuczenie sieci
która da blisko 100% poprawnych odpowiedzi na zbiorze uczącymi i
testowym.
> > > > Po co mi pomiary, przecież to
> > > > przykład bardziej ogólnego zjawiska które jest oczywiste.
> > > Jakiego bardziej ogólnego zjawiska?
> > > I co jest w nim oczywiste?
> > To co napisałem wielkimi literami w powyższym akapicie.
> > > > Zdrowy, sprawny i wykwalifikowany człowiek niektóre zadania wykonuje
wielokrotnie
> > > > bezbłędnie i to przez długie lata, i to nie tylko takie łatwe jak tabliczka
mnożenia.
> > > > Kierowca podejmuje decyzje wiele razy na minutę, a może nawet na sekundę.
> > > I popełniają błędy.
> > Tak, to wszystko ciekawe kwestie, ale odbiegają od tego co chciałem
> > napisać.
> > > > Niektórzy, co lepsi kierowcy chwalą się wieloletnią bezwypadkową jazdą.
> > > To, że ludzie się czymś chwalą, raczej wynika z ludzkiej niedoskonałości, niż z
ludzkiej doskonałości.
> > Kolejny temat rzeka.
> > > W każdym razie rynek ubezpieczeń nie ma powodów do narzekań.
> > Zgoda. Ale mam nadzieję że już jest jasne co mialem na myśli.
> No właśnie nie jest :)
Ok, spróbowałem jeszcze raz to opisać. Podsumowanie jest proste. Moje
sieci można uczyć na maksa, więc nie powtórzą błędu, a dlatego że trudniej
ulegają przeuczeniu, jest mniejsze prawdopodobieństwo że po takim wyuczeniu
na maksa dadzą całkowicie błędną odpowiedź na danych spoza zbioru
uczącego - np. gdy mucha wleci przed obiektyw kamery robota.
Pozdrawiam
Następne wpisy z tego wątku
- 20.11.20 17:02 Maciek Godek
- 20.11.20 23:38 M.M.
- 30.11.20 08:39 M.M.
- 04.12.20 02:04 M.M.
- 04.12.20 09:49 Mateusz Viste
- 04.12.20 13:09 M.M.
- 07.12.20 08:33 M.M.
Najnowsze wątki z tej grupy
- 7. Raport Totaliztyczny: Sprawa Qt Group wer. 424
- TCL - problem z escape ostatniego \ w nawiasach {}
- Nauka i Praca Programisty C++ w III Rzeczy (pospolitej)
- testy-wyd-sort - Podsumowanie
- Tworzenie Programów Nieuprzywilejowanych Opartych Na Wtyczkach
- Do czego nadaje się QDockWidget z bibl. Qt?
- Bibl. Qt jest sztucznie ograniczona - jest nieprzydatna do celów komercyjnych
- Co sciaga kretynow
- AEiC 2024 - Ada-Europe conference - Deadlines Approaching
- Jakie są dobre zasady programowania programów opartych na wtyczkach?
- sprawdzanie słów kluczowych dot. zła
- Re: W czym sie teraz pisze programy??
- Re: (PDF) Surgical Pathology of Non-neoplastic Gastrointestinal Diseases by Lizhi Zhang
- CfC 28th Ada-Europe Int. Conf. Reliable Software Technologies
- Młodzi programiści i tajna policja
Najnowsze wątki
- 2024-12-21 jak tacy debile
- 2024-12-20 Precedensy politycznie motywowanego nie wydawania w UE
- 2024-12-20 Obrońcy
- 2024-12-20 Obrońcy
- 2024-12-20 Obrońcy
- 2024-12-20 Gdańsk => Inżynier bezpieczeństwa aplikacji <=
- 2024-12-20 czyste powietrze
- 2024-12-20 Katowice => Analyst in the Trade Development department (experience wi
- 2024-12-20 Opole => Inżynier Serwisu Sprzętu Medycznego <=
- 2024-12-20 Katowice => Regionalny Kierownik Sprzedaży (OZE) <=
- 2024-12-20 Rzeszów => International Freight Forwarder <=
- 2024-12-20 Katowice => Key Account Manager (ERP) <=
- 2024-12-20 Ekstradycja
- 2024-12-20 Mikroskop 3D
- 2024-12-20 Warszawa => Spedytor Międzynarodowy <=