-
211. Data: 2015-01-22 18:52:49
Temat: Re: python...
Od: slawek <f...@f...com>
On Thu, 22 Jan 2015 11:34:31 +0100, "AK" <n...@n...com> wrote:
> Po pierwsze - i baaardzo dobrze :) Po co wywazac otwarte przez
kogos innego dzwi ? :)
Wyobraź sobie: możesz programować tylko w jednym języku. Gdy
wybierzesz Pythona... będziesz musiał jeszcze używać C. A tego nie
możesz. Bo musisz wybrać tylko jeden, a wybrałeś dwa. Paradoks taki.
-
212. Data: 2015-01-22 21:47:07
Temat: Re: python...
Od: "M.M." <m...@g...com>
On Thursday, January 22, 2015 at 12:40:00 PM UTC+1, firr wrote:
> tak naprawde chyba jesli dzis chce sie mowic o wydajnosci to nalezy
> pisac pod gpu opencl/cuda, cos takiego
W większości przypadków chyba masz rację. Obliczeniówka powinna być
na gpu.
> problem w tym ze to pai jest troche zaporowe, mz nie jest ladne, to
> raczej cos takiego jak kolejne winapi
Chyba też jest problem z architekturami, na każdą kartę trzeba napisać
inaczej, aby uzyskać jej maksimum wydajności.
> dla mnie jednak i tak powstaje dylemat czy sie tym zajmowac
ja pomimo że chcę, i by się przydało, to nigdy nie mam na to czasu.
> (mniejszy niz pytanie czy zajmowac sie javascryptem i pythonem co jest z kolei
mniejszym dylematem niz pytanie czy zajmowac sie java i c++
> (ciezko z kolei powiedziec czy zajmowanie sie lispami jest wyzej
> czy nizej niz java w tym rankingu chyba wyzej)
Chyba rozpisałeś to co ja nazywam jednym słowem 'niepotrzebny' :D
> opencl < js,python < lisp itp godkowe klimaty < java, c++, c#
>
> ;-)
>
> chyba bede musial sie wyszkolic w tym gpu jednakze nie jestem
> pewien czy teraz mam na to czas
To potem opisz jakie są pułapki dla początkujących.
>
> pytanie tez gdzie umiescic asma na tym schmacie prorytetow (czy nizej czy wyzej niz
opencl, mozliwe ze gdzies na rowni) [i tak ten schemat jest tylko wycinkiem tego co
mozna prioretyzowac ;\]
Jest jeszcze asm na GPU, gdzie go umieścić :D
Pozdrawiam
-
213. Data: 2015-01-22 22:40:33
Temat: Re: python...
Od: "AK" <n...@n...com>
Użytkownik "slawek" <f...@f...com> napisał:
> Paradoks taki.
Zaden paradoks. Kolejne imaginacje.
Jezykow jest raczej nadmiar, a z C/C++ to mam dokaldnie odwrotny klopot.
Przez wiele wiele lat ciezko mi bylo pozbyc sie tego garbu/syfu,
a nie zeby ktos zabranial.
AK
---
Ta wiadomość została sprawdzona na obecność wirusów przez oprogramowanie antywirusowe
Avast.
http://www.avast.com
-
214. Data: 2015-01-22 23:01:52
Temat: Re: python...
Od: firr <p...@g...com>
W dniu czwartek, 22 stycznia 2015 21:47:08 UTC+1 użytkownik M.M. napisał:
> On Thursday, January 22, 2015 at 12:40:00 PM UTC+1, firr wrote:
> > tak naprawde chyba jesli dzis chce sie mowic o wydajnosci to nalezy
> > pisac pod gpu opencl/cuda, cos takiego
> W większości przypadków chyba masz rację. Obliczeniówka powinna być
> na gpu.
>
>
> > problem w tym ze to pai jest troche zaporowe, mz nie jest ladne, to
> > raczej cos takiego jak kolejne winapi
> Chyba też jest problem z architekturami, na każdą kartę trzeba napisać
> inaczej, aby uzyskać jej maksimum wydajności.
>
>
> > dla mnie jednak i tak powstaje dylemat czy sie tym zajmowac
> ja pomimo że chcę, i by się przydało, to nigdy nie mam na to czasu.
>
tez wlasnie nie mam czasu .. ale pozatym to wychodzi chyba na to ze trzeba jednak by
to przetrenowac, chcąwszy czy nie chcąwszy - duty calls
>
> > (mniejszy niz pytanie czy zajmowac sie javascryptem i pythonem co jest z kolei
mniejszym dylematem niz pytanie czy zajmowac sie java i c++
> > (ciezko z kolei powiedziec czy zajmowanie sie lispami jest wyzej
> > czy nizej niz java w tym rankingu chyba wyzej)
> Chyba rozpisałeś to co ja nazywam jednym słowem 'niepotrzebny' :D
>
>
> > opencl < js,python < lisp itp godkowe klimaty < java, c++, c#
> >
> > ;-)
> >
> > chyba bede musial sie wyszkolic w tym gpu jednakze nie jestem
> > pewien czy teraz mam na to czas
> To potem opisz jakie są pułapki dla początkujących.
>
> >
> > pytanie tez gdzie umiescic asma na tym schmacie prorytetow (czy nizej czy wyzej
niz opencl, mozliwe ze gdzies na rowni) [i tak ten schemat jest tylko wycinkiem tego
co mozna prioretyzowac ;\]
> Jest jeszcze asm na GPU, gdzie go umieścić :D
>
> Pozdrawiam
-
215. Data: 2015-01-23 00:38:59
Temat: Re: python...
Od: Wojciech Muła <w...@g...com>
On Thursday, January 22, 2015 at 9:47:08 PM UTC+1, M.M. wrote:
> On Thursday, January 22, 2015 at 12:40:00 PM UTC+1, firr wrote:
> > tak naprawde chyba jesli dzis chce sie mowic o wydajnosci to nalezy
> > pisac pod gpu opencl/cuda, cos takiego
> W większości przypadków chyba masz rację. Obliczeniówka powinna być
> na gpu.
Model obliczeniowy GPU zakłada równoległość danych, co się sprawdza
we względnie niewielu zastosowaniach. Do tego pamięci GPU i CPU są
rozłączne, więc zachodzi konieczność transferu danych, co obniża
całkowite przyspieszenie.
w.
-
216. Data: 2015-01-23 01:08:03
Temat: Re: python...
Od: firr <p...@g...com>
W dniu piątek, 23 stycznia 2015 00:38:59 UTC+1 użytkownik Wojciech Muła napisał:
> On Thursday, January 22, 2015 at 9:47:08 PM UTC+1, M.M. wrote:
> > On Thursday, January 22, 2015 at 12:40:00 PM UTC+1, firr wrote:
> > > tak naprawde chyba jesli dzis chce sie mowic o wydajnosci to nalezy
> > > pisac pod gpu opencl/cuda, cos takiego
> > W większości przypadków chyba masz rację. Obliczeniówka powinna być
> > na gpu.
>
> Model obliczeniowy GPU zakłada równoległość danych, co się sprawdza
> we względnie niewielu zastosowaniach. Do tego pamięci GPU i CPU są
> rozłączne, więc zachodzi konieczność transferu danych, co obniża
> całkowite przyspieszenie.
>
mozna poszukac nawet zwykle konsumerskie testy, np
http://www.dobreprogramy.pl/Komputer-okazal-sie-nie-
dosc-szybki-OpenCL-moze-postawic-kwestie-wydajnosci-
na-glowie,News,58947.html
jesli sa jako tako dobrze zrobione
(o tym to nigdy nie wiadomo ale
pewnie z grubsza ok) to pokazuje ze
mozliwe jest "mw" kilkukrotne przyspieszenie a wiec wydaje sie
ze dziala
(w innym tesie narzekaja ze programistow sie na tym znajacych jest malo i ze to
kosztuje itp
ze soft stoi z tylem za sprzetem -
dla kogos kto chcialby sie w tym
wyspecjalizowac chyba tym lepiej)
[oczywiscie bez istotnego doswiadczenia ciezko
cos naprawde miarodajnie powiedziec ale z ogolnego wrazenia jakie mam wyniosilbym
wrazenie ze moze byc jednak warto nad tym przysiasc]
-
217. Data: 2015-01-23 16:50:41
Temat: Re: python...
Od: "M.M." <m...@g...com>
On Friday, January 23, 2015 at 1:08:03 AM UTC+1, firr wrote:
> W dniu piątek, 23 stycznia 2015 00:38:59 UTC+1 użytkownik Wojciech Muła napisał:
> > On Thursday, January 22, 2015 at 9:47:08 PM UTC+1, M.M. wrote:
> > > On Thursday, January 22, 2015 at 12:40:00 PM UTC+1, firr wrote:
> > > > tak naprawde chyba jesli dzis chce sie mowic o wydajnosci to nalezy
> > > > pisac pod gpu opencl/cuda, cos takiego
> > > W większości przypadków chyba masz rację. Obliczeniówka powinna być
> > > na gpu.
> >
> > Model obliczeniowy GPU zakłada równoległość danych, co się sprawdza
> > we względnie niewielu zastosowaniach.
Zapomniałem, że ja ciągle trafiam na niestatystyczne przypadki :D
Nie wiem jak często Wam się trafiają zadania trudne obliczeniowe, które
można optymalizować przez zrównoleglenie.
> > Do tego pamięci GPU i CPU są
> > rozłączne, więc zachodzi konieczność transferu danych, co obniża
> > całkowite przyspieszenie.
Niestety, narzut na transfery to pewnie problem.
> >
> mozna poszukac nawet zwykle konsumerskie testy, np
>
> http://www.dobreprogramy.pl/Komputer-okazal-sie-nie-
dosc-szybki-OpenCL-moze-postawic-kwestie-wydajnosci-
na-glowie,News,58947.html
>
> jesli sa jako tako dobrze zrobione
> (o tym to nigdy nie wiadomo ale
> pewnie z grubsza ok) to pokazuje ze
> mozliwe jest "mw" kilkukrotne przyspieszenie a wiec wydaje sie
Słyszałem że jak coś da się wrzucić do pamięci karty i potem w
pętli mielić przez całe godziny, to uzyskuje się przyspieszenie
100-200 razy. Obawiam się jednak, że to jest możliwe tylko pod
warunkiem optymalizacji na jedną konkretną kartę - ale nie wiem
na pewno. Może ogólnie to jest tylko kilkukrotne przyspieszenie.
> ze dziala
> (w innym tesie narzekaja ze programistow sie na tym znajacych jest malo i ze to
kosztuje itp
> ze soft stoi z tylem za sprzetem -
> dla kogos kto chcialby sie w tym
> wyspecjalizowac chyba tym lepiej)
> [oczywiscie bez istotnego doswiadczenia ciezko
> cos naprawde miarodajnie powiedziec ale z ogolnego wrazenia jakie mam wyniosilbym
wrazenie ze moze byc jednak warto nad tym przysiasc]
Nie można znać się na wszystkim, moja książka do CUDA cały czas
śmierdzi drukarnią.
Pozdrawiam
-
218. Data: 2015-01-23 22:57:26
Temat: Re: python...
Od: firr <p...@g...com>
W dniu piątek, 23 stycznia 2015 16:50:43 UTC+1 użytkownik M.M. napisał:
> On Friday, January 23, 2015 at 1:08:03 AM UTC+1, firr wrote:
> > W dniu piątek, 23 stycznia 2015 00:38:59 UTC+1 użytkownik Wojciech Muła napisał:
> > > On Thursday, January 22, 2015 at 9:47:08 PM UTC+1, M.M. wrote:
> > > > On Thursday, January 22, 2015 at 12:40:00 PM UTC+1, firr wrote:
> > > > > tak naprawde chyba jesli dzis chce sie mowic o wydajnosci to nalezy
> > > > > pisac pod gpu opencl/cuda, cos takiego
> > > > W większości przypadków chyba masz rację. Obliczeniówka powinna być
> > > > na gpu.
> > >
> > > Model obliczeniowy GPU zakłada równoległość danych, co się sprawdza
> > > we względnie niewielu zastosowaniach.
> Zapomniałem, że ja ciągle trafiam na niestatystyczne przypadki :D
> Nie wiem jak często Wam się trafiają zadania trudne obliczeniowe, które
> można optymalizować przez zrównoleglenie.
>
> > > Do tego pamięci GPU i CPU są
> > > rozłączne, więc zachodzi konieczność transferu danych, co obniża
> > > całkowite przyspieszenie.
> Niestety, narzut na transfery to pewnie problem.
>
> > >
> > mozna poszukac nawet zwykle konsumerskie testy, np
> >
> > http://www.dobreprogramy.pl/Komputer-okazal-sie-nie-
dosc-szybki-OpenCL-moze-postawic-kwestie-wydajnosci-
na-glowie,News,58947.html
> >
> > jesli sa jako tako dobrze zrobione
> > (o tym to nigdy nie wiadomo ale
> > pewnie z grubsza ok) to pokazuje ze
> > mozliwe jest "mw" kilkukrotne przyspieszenie a wiec wydaje sie
> Słyszałem że jak coś da się wrzucić do pamięci karty i potem w
> pętli mielić przez całe godziny, to uzyskuje się przyspieszenie
> 100-200 razy. Obawiam się jednak, że to jest możliwe tylko pod
> warunkiem optymalizacji na jedną konkretną kartę - ale nie wiem
> na pewno. Może ogólnie to jest tylko kilkukrotne przyspieszenie.
>
200-300 to mz bajki gpu nie jest
az tyle mocniejsze, mysle ze dobre gpu jest najwyzej kilkanascie razy mocniejsze niz
dobre cpu przy tym
jest tez o wiele badziej podoatne na
spowolnienia
kilkukrotnie to jednak nie jest malo, (!) - jest to calkiem sporo
chyab tez te trudnosci w kodowaniu
opencl sa przesadzone, chyba nie jest az tak zle
- byc moze nidlugo wykonam jakies testy
>
> > ze dziala
> > (w innym tesie narzekaja ze programistow sie na tym znajacych jest malo i ze to
kosztuje itp
> > ze soft stoi z tylem za sprzetem -
> > dla kogos kto chcialby sie w tym
> > wyspecjalizowac chyba tym lepiej)
>
>
> > [oczywiscie bez istotnego doswiadczenia ciezko
> > cos naprawde miarodajnie powiedziec ale z ogolnego wrazenia jakie mam wyniosilbym
wrazenie ze moze byc jednak warto nad tym przysiasc]
> Nie można znać się na wszystkim, moja książka do CUDA cały czas
> śmierdzi drukarnią.
>
> Pozdrawiam
-
219. Data: 2015-01-23 23:35:25
Temat: Re: python...
Od: "M.M." <m...@g...com>
On Friday, January 23, 2015 at 10:57:27 PM UTC+1, firr wrote:
> W dniu piątek, 23 stycznia 2015 16:50:43 UTC+1 użytkownik M.M. napisał:
> > On Friday, January 23, 2015 at 1:08:03 AM UTC+1, firr wrote:
> > > W dniu piątek, 23 stycznia 2015 00:38:59 UTC+1 użytkownik Wojciech Muła
napisał:
> > > > On Thursday, January 22, 2015 at 9:47:08 PM UTC+1, M.M. wrote:
> > > > > On Thursday, January 22, 2015 at 12:40:00 PM UTC+1, firr wrote:
> > > > > > tak naprawde chyba jesli dzis chce sie mowic o wydajnosci to nalezy
> > > > > > pisac pod gpu opencl/cuda, cos takiego
> > > > > W większości przypadków chyba masz rację. Obliczeniówka powinna być
> > > > > na gpu.
> > > >
> > > > Model obliczeniowy GPU zakłada równoległość danych, co się sprawdza
> > > > we względnie niewielu zastosowaniach.
> > Zapomniałem, że ja ciągle trafiam na niestatystyczne przypadki :D
> > Nie wiem jak często Wam się trafiają zadania trudne obliczeniowe, które
> > można optymalizować przez zrównoleglenie.
> >
> > > > Do tego pamięci GPU i CPU są
> > > > rozłączne, więc zachodzi konieczność transferu danych, co obniża
> > > > całkowite przyspieszenie.
> > Niestety, narzut na transfery to pewnie problem.
> >
> > > >
> > > mozna poszukac nawet zwykle konsumerskie testy, np
> > >
> > > http://www.dobreprogramy.pl/Komputer-okazal-sie-nie-
dosc-szybki-OpenCL-moze-postawic-kwestie-wydajnosci-
na-glowie,News,58947.html
> > >
> > > jesli sa jako tako dobrze zrobione
> > > (o tym to nigdy nie wiadomo ale
> > > pewnie z grubsza ok) to pokazuje ze
> > > mozliwe jest "mw" kilkukrotne przyspieszenie a wiec wydaje sie
> > Słyszałem że jak coś da się wrzucić do pamięci karty i potem w
> > pętli mielić przez całe godziny, to uzyskuje się przyspieszenie
> > 100-200 razy. Obawiam się jednak, że to jest możliwe tylko pod
> > warunkiem optymalizacji na jedną konkretną kartę - ale nie wiem
> > na pewno. Może ogólnie to jest tylko kilkukrotne przyspieszenie.
> >
>
> 200-300 to mz bajki gpu nie jest
> az tyle mocniejsze, mysle ze dobre gpu jest najwyzej kilkanascie razy mocniejsze
niz dobre cpu przy tym
> jest tez o wiele badziej podoatne na
> spowolnienia
>
> kilkukrotnie to jednak nie jest malo, (!) - jest to calkiem sporo
> chyab tez te trudnosci w kodowaniu
> opencl sa przesadzone, chyba nie jest az tak zle
> - byc moze nidlugo wykonam jakies testy
Mnie chodziło m/w o takie porównanie. Bierzemy z 5 algorytmów w miarę
podatnych na zrównoleglanie. Robimy wyżyłowaną implementację w asemblerze
na cpu i na gpu. Oczywiście też na cpu równolegle. No i mierzymy czasy.
Nie wyjdzie 100 razy szybciej na najnowszych teslach czy odpowiednikach
z konkurencji?
Pozdrawiam
-
220. Data: 2015-01-24 00:17:18
Temat: Re: python...
Od: firr <p...@g...com>
W dniu piątek, 23 stycznia 2015 23:35:27 UTC+1 użytkownik M.M. napisał:
> On Friday, January 23, 2015 at 10:57:27 PM UTC+1, firr wrote:
> > W dniu piątek, 23 stycznia 2015 16:50:43 UTC+1 użytkownik M.M. napisał:
> > > On Friday, January 23, 2015 at 1:08:03 AM UTC+1, firr wrote:
> > > > W dniu piątek, 23 stycznia 2015 00:38:59 UTC+1 użytkownik Wojciech Muła
napisał:
> > > > > On Thursday, January 22, 2015 at 9:47:08 PM UTC+1, M.M. wrote:
> > > > > > On Thursday, January 22, 2015 at 12:40:00 PM UTC+1, firr wrote:
> > > > > > > tak naprawde chyba jesli dzis chce sie mowic o wydajnosci to nalezy
> > > > > > > pisac pod gpu opencl/cuda, cos takiego
> > > > > > W większości przypadków chyba masz rację. Obliczeniówka powinna być
> > > > > > na gpu.
> > > > >
> > > > > Model obliczeniowy GPU zakłada równoległość danych, co się sprawdza
> > > > > we względnie niewielu zastosowaniach.
> > > Zapomniałem, że ja ciągle trafiam na niestatystyczne przypadki :D
> > > Nie wiem jak często Wam się trafiają zadania trudne obliczeniowe, które
> > > można optymalizować przez zrównoleglenie.
> > >
> > > > > Do tego pamięci GPU i CPU są
> > > > > rozłączne, więc zachodzi konieczność transferu danych, co obniża
> > > > > całkowite przyspieszenie.
> > > Niestety, narzut na transfery to pewnie problem.
> > >
> > > > >
> > > > mozna poszukac nawet zwykle konsumerskie testy, np
> > > >
> > > > http://www.dobreprogramy.pl/Komputer-okazal-sie-nie-
dosc-szybki-OpenCL-moze-postawic-kwestie-wydajnosci-
na-glowie,News,58947.html
> > > >
> > > > jesli sa jako tako dobrze zrobione
> > > > (o tym to nigdy nie wiadomo ale
> > > > pewnie z grubsza ok) to pokazuje ze
> > > > mozliwe jest "mw" kilkukrotne przyspieszenie a wiec wydaje sie
> > > Słyszałem że jak coś da się wrzucić do pamięci karty i potem w
> > > pętli mielić przez całe godziny, to uzyskuje się przyspieszenie
> > > 100-200 razy. Obawiam się jednak, że to jest możliwe tylko pod
> > > warunkiem optymalizacji na jedną konkretną kartę - ale nie wiem
> > > na pewno. Może ogólnie to jest tylko kilkukrotne przyspieszenie.
> > >
> >
> > 200-300 to mz bajki gpu nie jest
> > az tyle mocniejsze, mysle ze dobre gpu jest najwyzej kilkanascie razy mocniejsze
niz dobre cpu przy tym
> > jest tez o wiele badziej podoatne na
> > spowolnienia
> >
> > kilkukrotnie to jednak nie jest malo, (!) - jest to calkiem sporo
> > chyab tez te trudnosci w kodowaniu
> > opencl sa przesadzone, chyba nie jest az tak zle
> > - byc moze nidlugo wykonam jakies testy
>
> Mnie chodziło m/w o takie porównanie. Bierzemy z 5 algorytmów w miarę
> podatnych na zrównoleglanie. Robimy wyżyłowaną implementację w asemblerze
> na cpu i na gpu. Oczywiście też na cpu równolegle. No i mierzymy czasy.
> Nie wyjdzie 100 razy szybciej na najnowszych teslach czy odpowiednikach
> z konkurencji?
>
nie wydaje mi sie.. tak jak mowilem mz raczej to jest zakres kilka-kilkanascie razy,
(przynajmniej co do ogolnej przepustowosci, moze czytsa arytmetyka bylaby szybsza (?)
ale czysta arytmetyka jest raczej mniej przydatna -- pewnie mozna poszukac info w
necie, i moze sam zrobie testy, na razie odpoczywam