eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plGrupypl.comp.programmingprogramował ktoś na taki sprzęt?Re: programował ktoś na taki sprzęt?
  • Data: 2013-03-02 16:59:15
    Temat: Re: programował ktoś na taki sprzęt?
    Od: "M.M." <m...@g...com> szukaj wiadomości tego autora
    [ pokaż wszystkie nagłówki ]

    użytkownik Roman W napisał:
    > Nie wiem na ile moja odpowiedź Ci pomoże, ale w firmie w której
    > pracowałem grupa quantow przeniosła model stochastycznej wolatywnosci
    > Hestona na GPU I uzyskała przyspieszenie rzędu 100-400x, tak ze mogli
    > kalibrowac model symulacja Monte-Carlo, bez przyblizen analitycznych.
    Twoja odpowiedź jest pomocna, wiem teraz z kolejnego źródła, że
    przyspieszenia rzędu 100 razy są w ogóle możliwe - to ważna informacja
    dla mnie.

    Natomiast nie znam szczegółów, nie wiem np. jakie obliczenia
    dominują w tej symulacji MC. Nie wiem też co było z czym porównywane,
    czy chodzi o przyspieszenie jedna karta vs jeden procesor, czy może
    klaster 50 komputerów vs 50 kart, czy może komputer 4-procesorowy vs 4 karty.
    Nie wiem też jakie wersje procesorów i kart były porównywane. Niemniej
    jeśli innym się udało uzyskać przyspieszenia 100 razy, to mocno
    przemawia do mnie aby zakupić karty i spróbować - a nóż się uda.

    Z drugiej strony zastanawiam sie dlaczego w teście jaki przedstawił
    Bartek wyszło przyspieszenie tylko 12 razy. Z informacji znalezionych
    na wiki wynika, że sprzęt na którym testował Bartek, także jest mocny:
    http://en.wikipedia.org/wiki/GeForce_400_Series
    Ale skoro jest taki mocny, to dlaczego kosztuje tylko 200 dolców.

    użytkownik Edek Pienkowski napisał:
    > Wiele algorytmów piszę inaczej na cpu niż na gpu. Główną zaletą
    > Phi jest pewnie czas pisania kodu.
    Tak, a to bardzo ważna zaleta.


    > Niektórych nie ma sensu przepisaywać na kartę, niektóre mają
    > 10x, niektóre algorytmy dają 200x. Liczy się przepustowość,
    > zupełnie inaczej niż na cpu.
    Czyli w ogóle takie przyspieszenia są możliwe, w sumie chciałem
    się dowiedzieć czy to nie jest marketingowa bujda :)

    > Marnować Teslę na sieci neuronowe? To już jest przesada IMO :)
    Dlaczego? Mnie się to wydaje idealne na Teslę, liczy się funkcję
    dla wielu punktów jednocześnie.


    > To bardzo dobrze, że nie potrzebuje więcej Ram. Zostaje tylko
    > dopasować algorytm i kupić grzałkę ;) Same dane przy 192GB/s
    > teoretycznie wczytasz 300 razy na sekundę.
    Jeszcze nie jestem pewny, ale możliwe że będę mógł robić
    jeden transfer na dobę pomiędzy ram a kartą :)


    Pozdrawiam i dzięki wszystkim za odpowiedzi!



Podziel się

Poleć ten post znajomemu poleć

Wydrukuj ten post drukuj


Następne wpisy z tego wątku

Najnowsze wątki z tej grupy


Najnowsze wątki

Szukaj w grupach

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: