-
31. Data: 2009-04-01 19:13:53
Temat: Re: CUDA - przyszło?ć rozwoju procesorów i zmiany w technikach programowania ?
Od: Maciej Woźniak <m...@w...pl>
Użytkownik "Adam Przybyla" <a...@g...pl> napisał w wiadomości
>> Tak, twierdzę, że mózg działa, bo działa.
> Dziala ale w bardzo specyficzny sposob, czasami widzi tylko koniec
> zdania;-)))
Owszem, mózg działa w bardzo specyficzny sposób,
i czasami widzi tylko koniec zdania. Może nie
tyle jest to sposób specyficzny (bo jest to
zupełnie normalny dla mózgu sposób), co zupełnie
dla Ciebie niezrozumiały.
>>> Wg. Putmana (1968) logika ludzka powinna zostac zrewidowana
>>> w zwiazku z ostatnimi odkryciami empirycznymi w fizyce kwantowej
>>> a co za tym idzie logika klasyczne zle reprezentuje podstawowa
>>> kompetencje logiczna (za Logika i Psychologia - John Macnamara
>>> str. 257 - 264)
>>
>> I na podstawie czego Putman tak twierdził?
>> Bo ... tak?
> Zerknij do zrodel luke;-)
Rzeczywiste działanie mózgu od logiki
klasycznej się różni w wielu punktach,
ale brak aksjomatów takim punktem nie
jest. W źródłach jest właśnie bo ...
tak.
>> Oczywiście, że logika klasyczna źle ją
>> reprezentuje. Logika rozmyta reprezentuje
>> ją, na przykład, znacznie lepiej. A odkrycia
>> fizyki kwantowej nie mają w ogóle nic do
>> rzeczy. Logika to operacje na zdaniach,
>> prawdzie i fałszu, fizyka kwantowa nie
>> dokopała się takich cząstek, mylę się?
> ... mylisz;-)
Bo ...?
>>>> Z tej właśnie przyczyny zresztą oba te mechanizmy są w stanie
>>>> funkcjonować. Nie odwrotnie: to nie mózg działa, bo naśladuje
>>>> logikę i heurystykę, to logika i heurystyka działa, bo naśladuje \
>>>> mózg.
>>> Hmm, a moze mozna im przypisac udawanie logiki, cos tu nie gra;-)
>>>>
>>
>> Chcesz przypisać logice udawanie logiki?
>> No to coś tu nie gra:(.
> W odpowiedzi mozesz jeszcze napisac ze mozg udaje mozg;-)
Mogę, ale dlaczego miałbym pisać takie bzdury?
> Nie wiem jak laczysz to co ja napisalem z tym co chciales przekazac;-)
Nie łączę - nie potrafię.
>>>>> tz. "zdrowego rozsadku" Intuicje? Z powazaniem
>>>>
>>>> A co rozumiesz pod pojęciem "intuicji"? zdrowy rozsądek?
>>> ... nie.
>>
>> W takim razie ja też nie (nie rozumiem pod pojęciem
>> "zdrowego rozsądku" intuicji).
> To moze wyjasnic czym wg ciebie sie to rozni?;-) Z powazaniem
A to może Ty wyjaśnisz, czym według Ciebie?
-
32. Data: 2009-04-12 23:25:38
Temat: Re: CUDA - przyszłość rozwoju procesorów i zmiany w technikach programowania ?
Od: "Piotr Wyderski" <n...@g...com>
RedArt wrote:
> W efekcie stopniowo dostajemy potężną moc obliczeniową drzemiącą w kartach
> graficznych 'do zabawy'
> w zastosowaniach zupełnie z grafiką niezwiazanych - z coraz bardziej
> 'normalnym' interfejsem
> programistycznym.
To nie jest zaleta: te urządzenia zawdzięczają swą potężną wydajność
właśnie "nienormalności". Jeśli więc będziemy starali się, by przypominały
zwykłe komputery wieloprocesorowe z pamięcia dzieloną, to... po którejś
iteracji projektowej dostaniemy komputer wieloprocesorowy z pamięcia
dzieloną, a więc to, co już mamy.
> Powstaje jednocześnie wymóg modyfikacji głownego toku myślenia
> o konstrukcji oprogramowania - z algorytmiczno-iteracyjnego
> na danocentyczno-blokowy ;)
Zauważyłem, że to jest nie do przeskoczenia dla większości znanych
mi ludzi. Sekwencyjność jest tak głęboko osadzona w ludzkim mózgu,
że zawsze będzie zaburzać wyobraźnię.
> konstrukcji wydajnych procedur ETL (extract-transform-load)
Znam się na tym :-)
Ostatnio pobiliśmy jakieś natywne narzędzie Oracla podłączone
do Oraclowej bazy.
> Wymaga to rewizji stosowanych wzorców projektowych
One są w wiekszości sekwencyjne, albo co najwyżej sekwencyjno
-wielościeżkowe (wątki itp. badziewie). Data-flow, zwłaszcza w
wydaniu bottom-up tampo prostu nie istnieje.
> nowa technologia bowiem od początku kładzie nacisk na
> ukrycie najbardziej niskopoziomowych aspektów
> oprogramowania za pośrednim interfejsem
To jest bez znaczenia. A jeśli mam osobiści wybierać, to
wolę mieć dostęp do tych niskopoziomowych cudeniek.
> Wracając do tematu oprogramowania: ciekawe, jak szybko języki takie jak
> Java będa
> zdolne do skorzystania z nowych możliwości
Częściowo -- już od dawna:
http://research.microsoft.com/pubs/70250/tr-2005-184
.pdf
A w pełni? Mam nadzieję, że nigdy. Bo to nie jest język do
wysokowydajnego przetwarzania równoległego. A jak taki
język wygląda? Tego niestety nikt nie wie. :-) Mam swoje
propozycje, ale...
> - na najniższym poziomie powstaje pytanie typu: czy da się w ogóle
> zintegrować istniejące w tym języku > mechanizmy wielowątkowości
> (z instrukcjami synchronised/wait/notify) z nowym sposobem myślenia ?
Dać to się da, udało mi się wykazać odtwarzalność tych konstrukcji
w swoim frameworku. Pytanie tylko: po co? Zamontowanie końskiego
siodła w F-16 też jest technicznie możliwe... :-)
>A idąc wyżej:
> jak głęboko trzeba zmodyfikować techniki obiektowe, powszechnie stosowane
> wzorce projektowe ?
Wyrżnąć do korzeni :-) Ale sama obiektowość ma się dobrze:
w końcu polega na przekazywaniu *wiadomości* między obiektami,
a więc data flow jak się patrzy. Co z tego zrobiły C++/C#/Java to
już inna sprawa...
> Jak organizować obiekty danych (różnych typów - polimorfizm) w wyraziste
> bloki pamięci, tak
> by na wyższym poziomie dalej przypominały one abstrakcyjne kolekcje ?
A po co mają je przypominać?
> A co ze standardowymi
> iteratorami i odpalaniem metod wirtualnych na obiektach danych, gdzie
> różnorodność klas pociąga
> za sobą różnorodność procedur ?
A jak działa RPC? :-)
> Swego czasu pewien naukowiec opowiadał (rzekłbym: rozgorączkowanym głosem
> ...) o projekcie CAM-Brain.
Kolejne bicie piany przez cuckoo cloud academics. :-)
> Jednym z filarów tego projektu miała być zaawansowana technologicznie
> pamięć, gdzie cechy
> automatów komórkowych były zrealizowane już na poziomie sprzętowym. Cyk -
> i w kilku cyklach
> maszynowych miliony(...) komórek pamięci przechowujących dane
> poszczególnych automatów
> zmieniały stan - zgodnie z zaprogramowaną tablicą przejść, w zależności od
> stanów sąsiadów
> - innych najbliższych komórek pamięci.
Zieeew. Ktoś uparcie stara sie ponownie odkryć to koło.
> Na pewno po raz kolejny udowadnia, że problemy tworzenia sztucznej
> inteligencjie nie leżą w brakach mocy obliczeniowej (a na pewno nie jest
> to problem
> podstawowy).
Automaty komórkowe to uczciwa nauka, a nie żadna, za
przeproszeniem, sztuczna inteligencja.
> Ale wychodząc z dygresji: kiedy pojawiły się mechanizmy pixel shaderów w
> kartach graficznych,
> pierwsza myśl, jaka mi przyszła do głowy, to: a, mamy już w domu w końcu
> tę technologię
> idealną do wspomagania automatów komórkowych
Skąd ta myśl? Moim zdaniem shadery nadają się do tego słabo.
FPGA powinno być znacznie bardziej obiecującym kierunkiem.
Pozdrawiam
Piotr Wyderski
-
33. Data: 2009-04-13 00:36:07
Temat: Re: CUDA - przyszłość rozwoju procesorów i zmiany w technikach programowania ?
Od: A.L. <a...@a...com>
On Mon, 13 Apr 2009 01:25:38 +0200, "Piotr Wyderski"
<n...@g...com> wrote:
>Re
>
>Automaty komórkowe to uczciwa nauka, a nie żadna, za
>przeproszeniem, sztuczna inteligencja.
Zawsze sobie cenie Panskie, ehem... "niekonwencjonalne" myslenie. A
cos tak konkretnie i z sensem?...
A.L.