eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plGrupypl.comp.programmingpython...
Ilość wypowiedzi w tym wątku: 253

  • 211. Data: 2015-01-22 18:52:49
    Temat: Re: python...
    Od: slawek <f...@f...com>

    On Thu, 22 Jan 2015 11:34:31 +0100, "AK" <n...@n...com> wrote:
    > Po pierwsze - i baaardzo dobrze :) Po co wywazac otwarte przez
    kogos innego dzwi ? :)

    Wyobraź sobie: możesz programować tylko w jednym języku. Gdy
    wybierzesz Pythona... będziesz musiał jeszcze używać C. A tego nie
    możesz. Bo musisz wybrać tylko jeden, a wybrałeś dwa. Paradoks taki.


  • 212. Data: 2015-01-22 21:47:07
    Temat: Re: python...
    Od: "M.M." <m...@g...com>

    On Thursday, January 22, 2015 at 12:40:00 PM UTC+1, firr wrote:
    > tak naprawde chyba jesli dzis chce sie mowic o wydajnosci to nalezy
    > pisac pod gpu opencl/cuda, cos takiego
    W większości przypadków chyba masz rację. Obliczeniówka powinna być
    na gpu.


    > problem w tym ze to pai jest troche zaporowe, mz nie jest ladne, to
    > raczej cos takiego jak kolejne winapi
    Chyba też jest problem z architekturami, na każdą kartę trzeba napisać
    inaczej, aby uzyskać jej maksimum wydajności.


    > dla mnie jednak i tak powstaje dylemat czy sie tym zajmowac
    ja pomimo że chcę, i by się przydało, to nigdy nie mam na to czasu.


    > (mniejszy niz pytanie czy zajmowac sie javascryptem i pythonem co jest z kolei
    mniejszym dylematem niz pytanie czy zajmowac sie java i c++
    > (ciezko z kolei powiedziec czy zajmowanie sie lispami jest wyzej
    > czy nizej niz java w tym rankingu chyba wyzej)
    Chyba rozpisałeś to co ja nazywam jednym słowem 'niepotrzebny' :D


    > opencl < js,python < lisp itp godkowe klimaty < java, c++, c#
    >
    > ;-)
    >
    > chyba bede musial sie wyszkolic w tym gpu jednakze nie jestem
    > pewien czy teraz mam na to czas
    To potem opisz jakie są pułapki dla początkujących.

    >
    > pytanie tez gdzie umiescic asma na tym schmacie prorytetow (czy nizej czy wyzej niz
    opencl, mozliwe ze gdzies na rowni) [i tak ten schemat jest tylko wycinkiem tego co
    mozna prioretyzowac ;\]
    Jest jeszcze asm na GPU, gdzie go umieścić :D

    Pozdrawiam


  • 213. Data: 2015-01-22 22:40:33
    Temat: Re: python...
    Od: "AK" <n...@n...com>

    Użytkownik "slawek" <f...@f...com> napisał:

    > Paradoks taki.

    Zaden paradoks. Kolejne imaginacje.
    Jezykow jest raczej nadmiar, a z C/C++ to mam dokaldnie odwrotny klopot.
    Przez wiele wiele lat ciezko mi bylo pozbyc sie tego garbu/syfu,
    a nie zeby ktos zabranial.

    AK


    ---
    Ta wiadomość została sprawdzona na obecność wirusów przez oprogramowanie antywirusowe
    Avast.
    http://www.avast.com


  • 214. Data: 2015-01-22 23:01:52
    Temat: Re: python...
    Od: firr <p...@g...com>

    W dniu czwartek, 22 stycznia 2015 21:47:08 UTC+1 użytkownik M.M. napisał:
    > On Thursday, January 22, 2015 at 12:40:00 PM UTC+1, firr wrote:
    > > tak naprawde chyba jesli dzis chce sie mowic o wydajnosci to nalezy
    > > pisac pod gpu opencl/cuda, cos takiego
    > W większości przypadków chyba masz rację. Obliczeniówka powinna być
    > na gpu.
    >
    >
    > > problem w tym ze to pai jest troche zaporowe, mz nie jest ladne, to
    > > raczej cos takiego jak kolejne winapi
    > Chyba też jest problem z architekturami, na każdą kartę trzeba napisać
    > inaczej, aby uzyskać jej maksimum wydajności.
    >
    >
    > > dla mnie jednak i tak powstaje dylemat czy sie tym zajmowac
    > ja pomimo że chcę, i by się przydało, to nigdy nie mam na to czasu.
    >

    tez wlasnie nie mam czasu .. ale pozatym to wychodzi chyba na to ze trzeba jednak by
    to przetrenowac, chcąwszy czy nie chcąwszy - duty calls


    >
    > > (mniejszy niz pytanie czy zajmowac sie javascryptem i pythonem co jest z kolei
    mniejszym dylematem niz pytanie czy zajmowac sie java i c++
    > > (ciezko z kolei powiedziec czy zajmowanie sie lispami jest wyzej
    > > czy nizej niz java w tym rankingu chyba wyzej)
    > Chyba rozpisałeś to co ja nazywam jednym słowem 'niepotrzebny' :D
    >
    >
    > > opencl < js,python < lisp itp godkowe klimaty < java, c++, c#
    > >
    > > ;-)
    > >
    > > chyba bede musial sie wyszkolic w tym gpu jednakze nie jestem
    > > pewien czy teraz mam na to czas
    > To potem opisz jakie są pułapki dla początkujących.
    >
    > >
    > > pytanie tez gdzie umiescic asma na tym schmacie prorytetow (czy nizej czy wyzej
    niz opencl, mozliwe ze gdzies na rowni) [i tak ten schemat jest tylko wycinkiem tego
    co mozna prioretyzowac ;\]
    > Jest jeszcze asm na GPU, gdzie go umieścić :D
    >
    > Pozdrawiam


  • 215. Data: 2015-01-23 00:38:59
    Temat: Re: python...
    Od: Wojciech Muła <w...@g...com>

    On Thursday, January 22, 2015 at 9:47:08 PM UTC+1, M.M. wrote:
    > On Thursday, January 22, 2015 at 12:40:00 PM UTC+1, firr wrote:
    > > tak naprawde chyba jesli dzis chce sie mowic o wydajnosci to nalezy
    > > pisac pod gpu opencl/cuda, cos takiego
    > W większości przypadków chyba masz rację. Obliczeniówka powinna być
    > na gpu.

    Model obliczeniowy GPU zakłada równoległość danych, co się sprawdza
    we względnie niewielu zastosowaniach. Do tego pamięci GPU i CPU są
    rozłączne, więc zachodzi konieczność transferu danych, co obniża
    całkowite przyspieszenie.

    w.


  • 216. Data: 2015-01-23 01:08:03
    Temat: Re: python...
    Od: firr <p...@g...com>

    W dniu piątek, 23 stycznia 2015 00:38:59 UTC+1 użytkownik Wojciech Muła napisał:
    > On Thursday, January 22, 2015 at 9:47:08 PM UTC+1, M.M. wrote:
    > > On Thursday, January 22, 2015 at 12:40:00 PM UTC+1, firr wrote:
    > > > tak naprawde chyba jesli dzis chce sie mowic o wydajnosci to nalezy
    > > > pisac pod gpu opencl/cuda, cos takiego
    > > W większości przypadków chyba masz rację. Obliczeniówka powinna być
    > > na gpu.
    >
    > Model obliczeniowy GPU zakłada równoległość danych, co się sprawdza
    > we względnie niewielu zastosowaniach. Do tego pamięci GPU i CPU są
    > rozłączne, więc zachodzi konieczność transferu danych, co obniża
    > całkowite przyspieszenie.
    >
    mozna poszukac nawet zwykle konsumerskie testy, np

    http://www.dobreprogramy.pl/Komputer-okazal-sie-nie-
    dosc-szybki-OpenCL-moze-postawic-kwestie-wydajnosci-
    na-glowie,News,58947.html

    jesli sa jako tako dobrze zrobione
    (o tym to nigdy nie wiadomo ale
    pewnie z grubsza ok) to pokazuje ze
    mozliwe jest "mw" kilkukrotne przyspieszenie a wiec wydaje sie
    ze dziala
    (w innym tesie narzekaja ze programistow sie na tym znajacych jest malo i ze to
    kosztuje itp
    ze soft stoi z tylem za sprzetem -
    dla kogos kto chcialby sie w tym
    wyspecjalizowac chyba tym lepiej)

    [oczywiscie bez istotnego doswiadczenia ciezko
    cos naprawde miarodajnie powiedziec ale z ogolnego wrazenia jakie mam wyniosilbym
    wrazenie ze moze byc jednak warto nad tym przysiasc]


  • 217. Data: 2015-01-23 16:50:41
    Temat: Re: python...
    Od: "M.M." <m...@g...com>

    On Friday, January 23, 2015 at 1:08:03 AM UTC+1, firr wrote:
    > W dniu piątek, 23 stycznia 2015 00:38:59 UTC+1 użytkownik Wojciech Muła napisał:
    > > On Thursday, January 22, 2015 at 9:47:08 PM UTC+1, M.M. wrote:
    > > > On Thursday, January 22, 2015 at 12:40:00 PM UTC+1, firr wrote:
    > > > > tak naprawde chyba jesli dzis chce sie mowic o wydajnosci to nalezy
    > > > > pisac pod gpu opencl/cuda, cos takiego
    > > > W większości przypadków chyba masz rację. Obliczeniówka powinna być
    > > > na gpu.
    > >
    > > Model obliczeniowy GPU zakłada równoległość danych, co się sprawdza
    > > we względnie niewielu zastosowaniach.
    Zapomniałem, że ja ciągle trafiam na niestatystyczne przypadki :D
    Nie wiem jak często Wam się trafiają zadania trudne obliczeniowe, które
    można optymalizować przez zrównoleglenie.

    > > Do tego pamięci GPU i CPU są
    > > rozłączne, więc zachodzi konieczność transferu danych, co obniża
    > > całkowite przyspieszenie.
    Niestety, narzut na transfery to pewnie problem.

    > >
    > mozna poszukac nawet zwykle konsumerskie testy, np
    >
    > http://www.dobreprogramy.pl/Komputer-okazal-sie-nie-
    dosc-szybki-OpenCL-moze-postawic-kwestie-wydajnosci-
    na-glowie,News,58947.html
    >
    > jesli sa jako tako dobrze zrobione
    > (o tym to nigdy nie wiadomo ale
    > pewnie z grubsza ok) to pokazuje ze
    > mozliwe jest "mw" kilkukrotne przyspieszenie a wiec wydaje sie
    Słyszałem że jak coś da się wrzucić do pamięci karty i potem w
    pętli mielić przez całe godziny, to uzyskuje się przyspieszenie
    100-200 razy. Obawiam się jednak, że to jest możliwe tylko pod
    warunkiem optymalizacji na jedną konkretną kartę - ale nie wiem
    na pewno. Może ogólnie to jest tylko kilkukrotne przyspieszenie.


    > ze dziala
    > (w innym tesie narzekaja ze programistow sie na tym znajacych jest malo i ze to
    kosztuje itp
    > ze soft stoi z tylem za sprzetem -
    > dla kogos kto chcialby sie w tym
    > wyspecjalizowac chyba tym lepiej)


    > [oczywiscie bez istotnego doswiadczenia ciezko
    > cos naprawde miarodajnie powiedziec ale z ogolnego wrazenia jakie mam wyniosilbym
    wrazenie ze moze byc jednak warto nad tym przysiasc]
    Nie można znać się na wszystkim, moja książka do CUDA cały czas
    śmierdzi drukarnią.

    Pozdrawiam


  • 218. Data: 2015-01-23 22:57:26
    Temat: Re: python...
    Od: firr <p...@g...com>

    W dniu piątek, 23 stycznia 2015 16:50:43 UTC+1 użytkownik M.M. napisał:
    > On Friday, January 23, 2015 at 1:08:03 AM UTC+1, firr wrote:
    > > W dniu piątek, 23 stycznia 2015 00:38:59 UTC+1 użytkownik Wojciech Muła napisał:
    > > > On Thursday, January 22, 2015 at 9:47:08 PM UTC+1, M.M. wrote:
    > > > > On Thursday, January 22, 2015 at 12:40:00 PM UTC+1, firr wrote:
    > > > > > tak naprawde chyba jesli dzis chce sie mowic o wydajnosci to nalezy
    > > > > > pisac pod gpu opencl/cuda, cos takiego
    > > > > W większości przypadków chyba masz rację. Obliczeniówka powinna być
    > > > > na gpu.
    > > >
    > > > Model obliczeniowy GPU zakłada równoległość danych, co się sprawdza
    > > > we względnie niewielu zastosowaniach.
    > Zapomniałem, że ja ciągle trafiam na niestatystyczne przypadki :D
    > Nie wiem jak często Wam się trafiają zadania trudne obliczeniowe, które
    > można optymalizować przez zrównoleglenie.
    >
    > > > Do tego pamięci GPU i CPU są
    > > > rozłączne, więc zachodzi konieczność transferu danych, co obniża
    > > > całkowite przyspieszenie.
    > Niestety, narzut na transfery to pewnie problem.
    >
    > > >
    > > mozna poszukac nawet zwykle konsumerskie testy, np
    > >
    > > http://www.dobreprogramy.pl/Komputer-okazal-sie-nie-
    dosc-szybki-OpenCL-moze-postawic-kwestie-wydajnosci-
    na-glowie,News,58947.html
    > >
    > > jesli sa jako tako dobrze zrobione
    > > (o tym to nigdy nie wiadomo ale
    > > pewnie z grubsza ok) to pokazuje ze
    > > mozliwe jest "mw" kilkukrotne przyspieszenie a wiec wydaje sie
    > Słyszałem że jak coś da się wrzucić do pamięci karty i potem w
    > pętli mielić przez całe godziny, to uzyskuje się przyspieszenie
    > 100-200 razy. Obawiam się jednak, że to jest możliwe tylko pod
    > warunkiem optymalizacji na jedną konkretną kartę - ale nie wiem
    > na pewno. Może ogólnie to jest tylko kilkukrotne przyspieszenie.
    >

    200-300 to mz bajki gpu nie jest
    az tyle mocniejsze, mysle ze dobre gpu jest najwyzej kilkanascie razy mocniejsze niz
    dobre cpu przy tym
    jest tez o wiele badziej podoatne na
    spowolnienia

    kilkukrotnie to jednak nie jest malo, (!) - jest to calkiem sporo
    chyab tez te trudnosci w kodowaniu
    opencl sa przesadzone, chyba nie jest az tak zle
    - byc moze nidlugo wykonam jakies testy


    >
    > > ze dziala
    > > (w innym tesie narzekaja ze programistow sie na tym znajacych jest malo i ze to
    kosztuje itp
    > > ze soft stoi z tylem za sprzetem -
    > > dla kogos kto chcialby sie w tym
    > > wyspecjalizowac chyba tym lepiej)
    >
    >
    > > [oczywiscie bez istotnego doswiadczenia ciezko
    > > cos naprawde miarodajnie powiedziec ale z ogolnego wrazenia jakie mam wyniosilbym
    wrazenie ze moze byc jednak warto nad tym przysiasc]
    > Nie można znać się na wszystkim, moja książka do CUDA cały czas
    > śmierdzi drukarnią.
    >
    > Pozdrawiam


  • 219. Data: 2015-01-23 23:35:25
    Temat: Re: python...
    Od: "M.M." <m...@g...com>

    On Friday, January 23, 2015 at 10:57:27 PM UTC+1, firr wrote:
    > W dniu piątek, 23 stycznia 2015 16:50:43 UTC+1 użytkownik M.M. napisał:
    > > On Friday, January 23, 2015 at 1:08:03 AM UTC+1, firr wrote:
    > > > W dniu piątek, 23 stycznia 2015 00:38:59 UTC+1 użytkownik Wojciech Muła
    napisał:
    > > > > On Thursday, January 22, 2015 at 9:47:08 PM UTC+1, M.M. wrote:
    > > > > > On Thursday, January 22, 2015 at 12:40:00 PM UTC+1, firr wrote:
    > > > > > > tak naprawde chyba jesli dzis chce sie mowic o wydajnosci to nalezy
    > > > > > > pisac pod gpu opencl/cuda, cos takiego
    > > > > > W większości przypadków chyba masz rację. Obliczeniówka powinna być
    > > > > > na gpu.
    > > > >
    > > > > Model obliczeniowy GPU zakłada równoległość danych, co się sprawdza
    > > > > we względnie niewielu zastosowaniach.
    > > Zapomniałem, że ja ciągle trafiam na niestatystyczne przypadki :D
    > > Nie wiem jak często Wam się trafiają zadania trudne obliczeniowe, które
    > > można optymalizować przez zrównoleglenie.
    > >
    > > > > Do tego pamięci GPU i CPU są
    > > > > rozłączne, więc zachodzi konieczność transferu danych, co obniża
    > > > > całkowite przyspieszenie.
    > > Niestety, narzut na transfery to pewnie problem.
    > >
    > > > >
    > > > mozna poszukac nawet zwykle konsumerskie testy, np
    > > >
    > > > http://www.dobreprogramy.pl/Komputer-okazal-sie-nie-
    dosc-szybki-OpenCL-moze-postawic-kwestie-wydajnosci-
    na-glowie,News,58947.html
    > > >
    > > > jesli sa jako tako dobrze zrobione
    > > > (o tym to nigdy nie wiadomo ale
    > > > pewnie z grubsza ok) to pokazuje ze
    > > > mozliwe jest "mw" kilkukrotne przyspieszenie a wiec wydaje sie
    > > Słyszałem że jak coś da się wrzucić do pamięci karty i potem w
    > > pętli mielić przez całe godziny, to uzyskuje się przyspieszenie
    > > 100-200 razy. Obawiam się jednak, że to jest możliwe tylko pod
    > > warunkiem optymalizacji na jedną konkretną kartę - ale nie wiem
    > > na pewno. Może ogólnie to jest tylko kilkukrotne przyspieszenie.
    > >
    >
    > 200-300 to mz bajki gpu nie jest
    > az tyle mocniejsze, mysle ze dobre gpu jest najwyzej kilkanascie razy mocniejsze
    niz dobre cpu przy tym
    > jest tez o wiele badziej podoatne na
    > spowolnienia
    >
    > kilkukrotnie to jednak nie jest malo, (!) - jest to calkiem sporo
    > chyab tez te trudnosci w kodowaniu
    > opencl sa przesadzone, chyba nie jest az tak zle
    > - byc moze nidlugo wykonam jakies testy

    Mnie chodziło m/w o takie porównanie. Bierzemy z 5 algorytmów w miarę
    podatnych na zrównoleglanie. Robimy wyżyłowaną implementację w asemblerze
    na cpu i na gpu. Oczywiście też na cpu równolegle. No i mierzymy czasy.
    Nie wyjdzie 100 razy szybciej na najnowszych teslach czy odpowiednikach
    z konkurencji?

    Pozdrawiam


  • 220. Data: 2015-01-24 00:17:18
    Temat: Re: python...
    Od: firr <p...@g...com>

    W dniu piątek, 23 stycznia 2015 23:35:27 UTC+1 użytkownik M.M. napisał:
    > On Friday, January 23, 2015 at 10:57:27 PM UTC+1, firr wrote:
    > > W dniu piątek, 23 stycznia 2015 16:50:43 UTC+1 użytkownik M.M. napisał:
    > > > On Friday, January 23, 2015 at 1:08:03 AM UTC+1, firr wrote:
    > > > > W dniu piątek, 23 stycznia 2015 00:38:59 UTC+1 użytkownik Wojciech Muła
    napisał:
    > > > > > On Thursday, January 22, 2015 at 9:47:08 PM UTC+1, M.M. wrote:
    > > > > > > On Thursday, January 22, 2015 at 12:40:00 PM UTC+1, firr wrote:
    > > > > > > > tak naprawde chyba jesli dzis chce sie mowic o wydajnosci to nalezy
    > > > > > > > pisac pod gpu opencl/cuda, cos takiego
    > > > > > > W większości przypadków chyba masz rację. Obliczeniówka powinna być
    > > > > > > na gpu.
    > > > > >
    > > > > > Model obliczeniowy GPU zakłada równoległość danych, co się sprawdza
    > > > > > we względnie niewielu zastosowaniach.
    > > > Zapomniałem, że ja ciągle trafiam na niestatystyczne przypadki :D
    > > > Nie wiem jak często Wam się trafiają zadania trudne obliczeniowe, które
    > > > można optymalizować przez zrównoleglenie.
    > > >
    > > > > > Do tego pamięci GPU i CPU są
    > > > > > rozłączne, więc zachodzi konieczność transferu danych, co obniża
    > > > > > całkowite przyspieszenie.
    > > > Niestety, narzut na transfery to pewnie problem.
    > > >
    > > > > >
    > > > > mozna poszukac nawet zwykle konsumerskie testy, np
    > > > >
    > > > > http://www.dobreprogramy.pl/Komputer-okazal-sie-nie-
    dosc-szybki-OpenCL-moze-postawic-kwestie-wydajnosci-
    na-glowie,News,58947.html
    > > > >
    > > > > jesli sa jako tako dobrze zrobione
    > > > > (o tym to nigdy nie wiadomo ale
    > > > > pewnie z grubsza ok) to pokazuje ze
    > > > > mozliwe jest "mw" kilkukrotne przyspieszenie a wiec wydaje sie
    > > > Słyszałem że jak coś da się wrzucić do pamięci karty i potem w
    > > > pętli mielić przez całe godziny, to uzyskuje się przyspieszenie
    > > > 100-200 razy. Obawiam się jednak, że to jest możliwe tylko pod
    > > > warunkiem optymalizacji na jedną konkretną kartę - ale nie wiem
    > > > na pewno. Może ogólnie to jest tylko kilkukrotne przyspieszenie.
    > > >
    > >
    > > 200-300 to mz bajki gpu nie jest
    > > az tyle mocniejsze, mysle ze dobre gpu jest najwyzej kilkanascie razy mocniejsze
    niz dobre cpu przy tym
    > > jest tez o wiele badziej podoatne na
    > > spowolnienia
    > >
    > > kilkukrotnie to jednak nie jest malo, (!) - jest to calkiem sporo
    > > chyab tez te trudnosci w kodowaniu
    > > opencl sa przesadzone, chyba nie jest az tak zle
    > > - byc moze nidlugo wykonam jakies testy
    >
    > Mnie chodziło m/w o takie porównanie. Bierzemy z 5 algorytmów w miarę
    > podatnych na zrównoleglanie. Robimy wyżyłowaną implementację w asemblerze
    > na cpu i na gpu. Oczywiście też na cpu równolegle. No i mierzymy czasy.
    > Nie wyjdzie 100 razy szybciej na najnowszych teslach czy odpowiednikach
    > z konkurencji?
    >
    nie wydaje mi sie.. tak jak mowilem mz raczej to jest zakres kilka-kilkanascie razy,
    (przynajmniej co do ogolnej przepustowosci, moze czytsa arytmetyka bylaby szybsza (?)
    ale czysta arytmetyka jest raczej mniej przydatna -- pewnie mozna poszukac info w
    necie, i moze sam zrobie testy, na razie odpoczywam

strony : 1 ... 10 ... 21 . [ 22 ] . 23 ... 26


Szukaj w grupach

Szukaj w grupach

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: