-
Data: 2012-04-15 04:54:39
Temat: Re: kryzys jezyków kompilowanych do kodu 'natywnego'
Od: " M.M." <m...@g...pl> szukaj wiadomości tego autora
[ pokaż wszystkie nagłówki ]Edek Pienkowski <e...@g...com> napisał(a):
> Sieć NN, nuda jak cholera. Każdy pseudo-neuron był połączony z
> poprzednim(i) layerem(ami) na zasadzie kształtu - layer 2D,
> kształt tego rodzaju, że obejmuje neurony "najbliżej", z tymi ma link,
> chociaż mógł być "co któryś", jak w iteracji ze step.
> Optymalizowałem uczenie, czyli forward pass, ocena, uczenie. Uczenie
> na zasadzie zmian przy złym wyniku bez back-prop., potem jeszcze
> wzmacnianie połączeń przy "dobrym". Funkcja typu clip (0.,1.),
> ale binaryzowana 3-8 bitów na neuron
> (przy 3: 0., 0. + 1./7. , ..., 1.). Pomijając gęstość
> informacji na podstawie czytanych prac, słabo znam temat NN,
> to binaryzowanie fajnie na CUDA działało, bo dużo więcej
> się mieściło w shared, chociaż na starych kartach (1.3) to było
> jeszcze przewidywalne, ale na cc 2.1 już nie miałem czasami pojęcia,
> dlaczego coś jest szybsze lub, oczywiście z zaskoczenia, 30%
> wolniejsze.
> Jakkolwiek by się nie napisało algorytmu dostępy bywały mocno
> nieregularne, to nie każdy-z-każdym. Na i7 lepszy był naiwny
> algorytm, każdy link miał dwa floaty i kilka pointerów, alokowany
> przez new, a na Core 2 lepsze było SoA, chociaż tu znowu
> sporo zależało od "kształtu", ile linków na neuron i proporcji
> do rozmiaru layera. Przy wielkich oczywiście pomagało tiling
> ze względu na cache, ale ja zazwyczaj miałem dużo layerów
> raczej niewielkich (nieliniowe mają inne
> właściwości, jest sens robić więcej layerów, ilość informacji
> w nieliniowych jest inna niż w liniowych, o ile znam temat;
> w każdym razie to nie jest minimalizacja).
> Tylko dlatego tak naprawdę sporo czasu na to poświęciłem,
> że właśnie nie było to nic regularnego, a jednocześnie w miarę
> niewielkie.
> Różnice były rzędu kilku %, ale zdarzały się odchyły rzędu
> 20% gorzej. Całość po kompilacji trafiała do jednej wielkiej
> metody, zmieniałem głównie layout danych, kolejność iteracji,
> alignment, opcje typu fp+sse/sse z różnym skutkiem no i
> to PGO. Oczywiście główną alternatywą był push albo pull,
> swoje też dodawał random.
> Coś czego do dzisiaj nie rozumiem: pierwsze przebiegi były
> sporo wolniejsze, potem kilka ze 2-3% szybsze, potem plateau o ile
> system czegoś akurat nie robił. Chyba na i7, nie pamiętam. Tego
> że seria przebiegów miała ten peak nie rozumiem,
> a sprawdziłem, że mi się wcale nie przywidziało, kilka razy.
Czyli podsumowując napracowałeś się bardzo dużo nad implementacją, a
efektów zbyt dużo nie było. Tak to już chyba jest... ale bardzo zdumiewa
mnie fakt, że używając SEE / CUDA nie uzyskałeś na czymś takim jak
sztuczne sieci neuronowe kolosalnego przyspieszenia. Gdzieś czytałem
że na jednej tesli (która zdaje się ma 4 GPU) uzyskano przyspieszenie
260 razy względem dwu- (albo nawet cztero-) procesorowego Xeona.
Nie wiem jak to dokładnie implementowałeś... w swojej implementacji
czegoś podobnego właśnie nie widzę sensownego miejsca na optymalizację.
Ja mam po prostu zbiór neuronów, a wejścia niczym się nie różnią od
neuronów. W uproszczeniu neuron to u mnie jedna liczba zmiennoprzecinkowa.
Potem ma tablicę mniej/więcej takich struktur:
struct Connect {
int input;
int output
float weight;
};
Serce i zarazem gorący punkt algorytmu to taka pętla:
float neurony[1..ilosc_neuronow];
neurony[1..ilosc_wejsc] = wektor_wyjsciowy;
for( i=0 ; i<connects.size ; i++ ) {
neurony[ connects[i].output ] += funkcja_nieliniowa( neurony[
connects[i].input ] );
neurony[ neurony[ connects[i].input ] = funkcja_zaniku( neurony[
connects[i].input );
}
return neurony[ilosc_neuronow-ilosc_wyjsc..ilosc_neuronow];
Co tu da się zoptymalizować to nie wiem :)
Ale na Tesli, do póki dane mieszczą się w jej pamięci, to powinno działać
równolegle na 512 procesorach...
Pozdrawiam
--
Wysłano z serwisu Usenet w portalu Gazeta.pl -> http://www.gazeta.pl/usenet/
Następne wpisy z tego wątku
- 15.04.12 11:37 Edek Pienkowski
- 15.04.12 12:11 Edek Pienkowski
- 16.04.12 22:01 AK
- 17.04.12 01:12 Andrzej Jarzabek
- 17.04.12 14:26 AK
Najnowsze wątki z tej grupy
- Alg. kompresji LZW
- Popr. 14. Nauka i Praca Programisty C++ w III Rzeczy (pospolitej)
- Arch. Prog. Nieuprzywilejowanych w pełnej wer. na nowej s. WWW energokod.pl
- 7. Raport Totaliztyczny: Sprawa Qt Group wer. 424
- TCL - problem z escape ostatniego \ w nawiasach {}
- Nauka i Praca Programisty C++ w III Rzeczy (pospolitej)
- testy-wyd-sort - Podsumowanie
- Tworzenie Programów Nieuprzywilejowanych Opartych Na Wtyczkach
- Do czego nadaje się QDockWidget z bibl. Qt?
- Bibl. Qt jest sztucznie ograniczona - jest nieprzydatna do celów komercyjnych
- Co sciaga kretynow
- AEiC 2024 - Ada-Europe conference - Deadlines Approaching
- Jakie są dobre zasady programowania programów opartych na wtyczkach?
- sprawdzanie słów kluczowych dot. zła
- Re: W czym sie teraz pisze programy??
Najnowsze wątki
- 2025-02-14 Warszawa => Data Engineer (Tech Leader) <=
- 2025-02-14 Czy ma sens grupa news:pl.soc.polityka-prawna ? :-)
- 2025-02-14 e-paper
- 2025-02-14 Gliwice => Business Development Manager - Network and Network Security
- 2025-02-14 Warszawa => System Architect (Java background) <=
- 2025-02-14 Katowice => Senior Field Sales (system ERP) <=
- 2025-02-14 Wrocław => Specjalista ds. Sprzedaży (transport drogowy) <=
- 2025-02-14 Re: Dlaczego nie było (pełzającego) zamachu stanu? Bo minister Bodnar już "zawiesił" prokuratora Ostrowskiego
- 2025-02-14 e-paper
- 2025-02-14 Warszawa => Architekt rozwiązań (doświadczenie w obszarze Java, AWS
- 2025-02-14 Warszawa => International Freight Forwarder <=
- 2025-02-14 Olsztyn => Sales Specialist <=
- 2025-02-14 Wrocław => Konsultant wdrożeniowy Comarch XL/Optima (Księgowość i
- 2025-02-14 Bieruń => Spedytor Międzynarodowy (handel ładunkami/prowadzenie flo
- 2025-02-14 Dęblin => JavaScript / Node / Fullstack Developer <=