-
11. Data: 2024-03-14 16:02:24
Temat: Re: Problem z niezawodnością chip-ów
Od: a...@h...invalid (Arnold Ziffel)
Atlantis <m...@w...pl> wrote:
> W przypadku elektroniki to jednak nie tyle konsumpcjonizm, co prawo
> Moore'a. Jeśli tworzysz jakiś produkt i wraz z upływem czasu dostajesz
> coraz więcej mocy obliczeniowej za te same pieniądze, to dlaczego nie
> wykorzystać tego w kolejnej generacji?
No tak. Tylko co jak klient nie chce nowej generacji, bo stara mu
wystarcza? Fajnie gdyby sprzęt działał jak najdłużej, a nie zgodnie z
planowanym postarzaniem.
--
Do baru wchodzi facet i pokazując na spitego do nieprzytomności faceta, mówi:
- Dla mnie to samo.
-
12. Data: 2024-03-14 16:40:55
Temat: Re: Problem z niezawodnością chip-ów
Od: Atlantis <m...@w...com>
On 14.03.2024 16:00, Arnold Ziffel wrote:
> Niektóre potrafią, inne nie. Mam stary rosyjski budzik, w którym układ
> padł sam z siebie. Układy ULA w Spectrumach też nie były specjalnie
> trwałe.
To chyba wynikało z technologii produkcji. Jeśli dobrze pamiętam, ULA
nie była ASIC-iem robionym na zamówienie. To była uniwersalna struktura
krzemowa z zestawem bloków logicznych, na którą potem nanoszono kolejną
warstwę, zawierającą połączenia między nimi. Coś w rodzaju CPLD/FPGA,
tylko programowanego w fabryce i na trochę niższym poziomie. ;)
Poza tym no cóż... Nic nie jest niezniszczalne. Przyczyn może być wiele:
ukryta wada fabryczna, która w końcu da o sobie znać po latach,
przepięcie, wysokoenergetyczna cząstka, albo po prostu entropia... :)
-
13. Data: 2024-03-14 16:59:00
Temat: Re: Problem z niezawodnością chip-ów
Od: Atlantis <m...@w...com>
On 14.03.2024 16:02, Arnold Ziffel wrote:
> No tak. Tylko co jak klient nie chce nowej generacji, bo stara mu
> wystarcza?
A klient zapłaci za równoległe rozwijanie oprogramowania na kilka
różnych wersji platformy, a także jego optymalizację z myślą o odpalaniu
na wariancie sprzętowym sprzed kilkunastu lat? Nie? No to klientowi
pozostaje biblioteka gier, jakie wyszły na daną platformę. Póki co na
szczęście nie ma problemów z uruchamianiem fizycznych wydań na sprzęcie,
który nie jest już wspierany. Dystrybucja cyfrowa to zupełnie inna sprawa...
Teraz i tak sytuacja dość mocno zmieniła się na lepsze, bo tak do
siódmej generacji konsole bardzo mocno różniły się od siebie sprzętowo,
a tworzenie gier było sztuką wymagającą znajomości sprzętu i związanych
z nim narzędzi programistycznych. Dzisiaj zarówno Sony jak i Microsoft
postawiły na bardziej "pecetowe" architektury, a gry powstają w kilku
najpopularniejszych silnikach.
> Fajnie gdyby sprzęt działał jak najdłużej, a nie zgodnie z planowanym
> postarzaniem.
No i właśnie w przypadku konsol do gier narracja o planowanym
postarzaniu trochę się sypie, bo gdyby producenci chcieli, to spokojnie
mogliby uwalić ósmą generację już kilka lat temu. Tylko najwyraźniej im
się nie chce, bo nowe tutuły na PS4 czy XBox One ciągle wychodzą,
chociaż z każdą chwilą jest ich coraz mniej (ale to przede wszystkim
decyzja deweloperów, zresztą bardziej ambitnych produkcji nie dałoby się
już upchnąć w hardwarze sprzed ponad dekady).
No i jest jeszcze ta kwestia, że obecnie przyrost mocy obliczeniowej nie
daje już tak spektakularnych efektów, jak kiedyś. Z chwilą przeskoku
PSX->PS2 czy PS2->PS3 różnica w grafice była oczywista. Dzisiaj gra
wygląda lepiej, ale żeby zobaczyć tę różnicę nieraz trzeba obejrzeć film
z porównaniem tych samych scen. Albo liczyć FPS-y. ;)
-
14. Data: 2024-03-14 17:23:13
Temat: Re: Problem z niezawodnością chip-ów
Od: Jarosław Sokołowski <j...@l...waw.pl>
Pan Arnold Ziffel napisał:
>> W przypadku elektroniki to jednak nie tyle konsumpcjonizm, co prawo
>> Moore'a. Jeśli tworzysz jakiś produkt i wraz z upływem czasu dostajesz
>> coraz więcej mocy obliczeniowej za te same pieniądze, to dlaczego nie
>> wykorzystać tego w kolejnej generacji?
>
> No tak. Tylko co jak klient nie chce nowej generacji, bo stara mu
> wystarcza? Fajnie gdyby sprzęt działał jak najdłużej, a nie zgodnie
> z planowanym postarzaniem.
To nie jedna z tych legend miejskich? W telekomunikacji już jakiś czas
temu zmieniło się podejście do błędów. Kiedyś obowiązywał paradygmat,
że w transmisji cyfrowej odstęp sygnału od szumu ma być wielki, każdy
bit musi przejść bez błędu. Teraz pcha się tyle danych, tak szybko,
żeby dobić do granicy, gdzie błędy się pojawiają, ale w ilości kilku
procent. Pcha się bity nadmiarowo, a potem koryguje matematycznie.
No i jak kiedyś telefonicznym drutem szło 300 bitów na sekundę, to
teraz sto megabitów.
W półprzewodnikach dzieje się podobie. Pierwszy był Clive Sinclair,
który do komputera ZX Spectrum wkładał pamięci RAM 64k z uszkodzoną
komórką, które dobrze sprawdzały się jako 32k. Dzisiaj każda pamięć
RAM jest "uszkodzona", projektuje się nadmiarowe wieresze i kolumny,
a gdy na ich przecięci trafi się uszkodzona komóra, wyłącza się cały
wiersz i całą kolumnę.
Jest opowieść o tym, jak panowie inwestorzy zapytali pomysłodawcę
mikroprocesora, co będzie, gdy coś w nim się zepsuje? -- No to się
go wyrzuci, nikt nie będzie układu scalonego naprawiał. -- Ha, ha,
ha, wyrzucać lekko uszkodzony komputer, dobre sobie! No a teraz
jesteśmy na dobrej drodze do tego, by psujące się procesory mogły
się same naprawiać, wykorzystując do tego włożone im w fabryce do
środka części zamienne.
A "planowe postarzanie"? Jeśli już, to łatwiej zrobić je programowo.
Jeszcze jedno mi się przypomniało w związku ze "starymi generacjami".
W latach '90 robiliśmy diwajs, w którym był mikrokontroler z pierwszą
generacją pamięci flash. Niewiele jej tam było, ale chodziło tylko
o zapamiętanie ustawień, program był w innym miejscu. Działała tak,
że zapis trzeba było robić w kilku miejscach, a przy odczytywaniu
wynik ustalać w drodze głosowania.
Jarek
--
Są trzy metody głosowania, pierwsza przez aplauz, znaczy się że wszyscy
głosuja. Druga metoda kulkami. Są kulki czarne i czerwone, ktore
otrzymuje każdy głosujacy, czy... przepraszam, białe i czarne, które
otrzymuje każdy glosujacy, czarna za... lub odwrotnie, czarna za, y...
czarna przeciw, biała za, jeżeli nie odwrotnie. Jest trzecia metoda,
przez podniesienie rąk. Ta metoda jest najdoskonalsza.
-
15. Data: 2024-03-14 18:40:52
Temat: Re: Problem z niezawodnością chip-ów
Od: "J.F" <j...@p...onet.pl>
On Thu, 14 Mar 2024 17:23:13 +0100, Jarosław Sokołowski wrote:
> Pan Arnold Ziffel napisał:
>> No tak. Tylko co jak klient nie chce nowej generacji, bo stara mu
>> wystarcza? Fajnie gdyby sprzęt działał jak najdłużej, a nie zgodnie
>> z planowanym postarzaniem.
>
> To nie jedna z tych legend miejskich? W telekomunikacji już jakiś czas
> temu zmieniło się podejście do błędów. Kiedyś obowiązywał paradygmat,
> że w transmisji cyfrowej odstęp sygnału od szumu ma być wielki, każdy
> bit musi przejść bez błędu.
Prawie, bo jednak tej stopy błędów nie udało się uniknąć.
> Teraz pcha się tyle danych, tak szybko,
> żeby dobić do granicy, gdzie błędy się pojawiają, ale w ilości kilku
> procent. Pcha się bity nadmiarowo, a potem koryguje matematycznie.
Skoro można, to się robi.
> No i jak kiedyś telefonicznym drutem szło 300 bitów na sekundę, to
> teraz sto megabitów.
Ale to nie tylko dlatego.
Jak widac - kiedys tym drutem też mogło isc 100MB (raczej 20), tylko
sprzętu nie było :-)
> W półprzewodnikach dzieje się podobie. Pierwszy był Clive Sinclair,
> który do komputera ZX Spectrum wkładał pamięci RAM 64k z uszkodzoną
> komórką, które dobrze sprawdzały się jako 32k.
32k dobre !
Aczkolwiek jak można w historii doczytać "rtęć z rur wyciekała, więc
powstał sytem zarządzania pamięcią, aby nie tracic przy tym danych".
Na długo przed spektrum.
> Dzisiaj każda pamięć
> RAM jest "uszkodzona", projektuje się nadmiarowe wieresze i kolumny,
> a gdy na ich przecięci trafi się uszkodzona komóra, wyłącza się cały
> wiersz i całą kolumnę.
DRAM/SRAM tez? Moze i też, bo az się prosi.
A ekrany LCD jak się robi? Bo złych pikseli nie widać.
> Jest opowieść o tym, jak panowie inwestorzy zapytali pomysłodawcę
> mikroprocesora, co będzie, gdy coś w nim się zepsuje? -- No to się
> go wyrzuci, nikt nie będzie układu scalonego naprawiał. -- Ha, ha,
> ha, wyrzucać lekko uszkodzony komputer, dobre sobie!
486SX :-)
> Jeszcze jedno mi się przypomniało w związku ze "starymi generacjami".
> W latach '90 robiliśmy diwajs, w którym był mikrokontroler z pierwszą
> generacją pamięci flash. Niewiele jej tam było, ale chodziło tylko
> o zapamiętanie ustawień, program był w innym miejscu. Działała tak,
> że zapis trzeba było robić w kilku miejscach, a przy odczytywaniu
> wynik ustalać w drodze głosowania.
No widzisz - a piszesz, ze kiedyś było lepiej :-)
Nie skopaliscie czegos? w latach 90-tych to juz powinno działac dobrze
...
J.
-
16. Data: 2024-03-14 18:54:55
Temat: Re: Problem z niezawodnością chip-ów
Od: Ghost <g...@h...net>
W dniu 14.03.2024 o 00:15, pytajacy pisze:
> Ciekawy jestem czy w przyszłości to wróci do stanu że zakupione
> urządzenie będzie działać laaatami...
To mowisz, ze w twoim swiecie klon IBM PC AT z lat 80 byl bardziej
niezawodny niz dzisiejsze PC z np. i9?
-
17. Data: 2024-03-14 20:08:04
Temat: Re: Problem z niezawodnością chip-ów
Od: Jarosław Sokołowski <j...@l...waw.pl>
Pan J.F napisał:
>> Dzisiaj każda pamięć RAM jest "uszkodzona", projektuje się nadmiarowe
>> wieresze i kolumny, a gdy na ich przecięci trafi się uszkodzona komóra,
>> wyłącza się cały wiersz i całą kolumnę.
>
> DRAM/SRAM tez? Moze i też, bo az się prosi.
Te przede wszystkim.
> A ekrany LCD jak się robi? Bo złych pikseli nie widać.
Starannie.
>> Jeszcze jedno mi się przypomniało w związku ze "starymi generacjami".
>> W latach '90 robiliśmy diwajs, w którym był mikrokontroler z pierwszą
>> generacją pamięci flash. Niewiele jej tam było, ale chodziło tylko
>> o zapamiętanie ustawień, program był w innym miejscu. Działała tak,
>> że zapis trzeba było robić w kilku miejscach, a przy odczytywaniu
>> wynik ustalać w drodze głosowania.
>
> No widzisz - a piszesz, ze kiedyś było lepiej :-)
Ja?! Gdzie? Owszem, uważam, że pewne rzeczy wcześniej działały lepiej,
jednak nie generalizuję.
> Nie skopaliscie czegos? w latach 90-tych to juz powinno działac dobrze
https://en.wikipedia.org/wiki/Microcontroller
In 1993, the introduction of EEPROM memory allowed microcontrollers
(beginning with the Microchip PIC16C84) [...] The same year, Atmel
introduced the first microcontroller using Flash memory, a special
type of EEPROM.
To były absolutne początki. Działało tak sobie.
--
Jarek
-
18. Data: 2024-03-14 20:28:01
Temat: Re: Problem z niezawodnością chip-ów
Od: pytajacy <r...@p...fm>
W dniu 14.03.2024 o 18:54, Ghost pisze:
> W dniu 14.03.2024 o 00:15, pytajacy pisze:
>
>> Ciekawy jestem czy w przyszłości to wróci do stanu że zakupione
>> urządzenie będzie działać laaatami...
>
> To mowisz, ze w twoim swiecie klon IBM PC AT z lat 80 byl bardziej
> niezawodny niz dzisiejsze PC z np. i9?
>
Aż tak to nie.
Ale padł mi dysk SSD Crucial (pisałem tutaj o tym). Niby nic bo na
gwarancji jeszcze był, ale zanabyłem w zamian Samsunga z 5 letnią gwarancją.
Kupiłem PS4 w 2014 roku i okazał się z błędem systemowym, nie dało się
grać - wymieniłem na PS3.
Takie przykłady z brzegu, gdzie rozwiązanie tych problemów kosztowało
mnie trochę zachodu i nerwów (PS4 nie chcieli przyjąć w Media Markt).
-
19. Data: 2024-03-14 20:41:30
Temat: Re: Problem z niezawodnością chip-ów
Od: alojzy nieborak <g...@g...com>
W dniu 2024-03-14 o 18:40, J.F pisze:
> A ekrany LCD jak się robi? Bo złych pikseli nie widać.
Gdybam.
Matryce LCD powstały wcześniej od urządzeń do ich optycznej kontroli?
Pierw sprawdzali "na oko", a teraz automatem?
https://vicoimaging.com/industrial-lenses-and-their-
applications-in-the-lcm-segment-in-2024/
I z różnymi specjalizacjami, do pikseli jedno ustrojstwo, do
łączeń jak nie patrzeć prawie transparentnych drugie urządzenie.
Do tego trza jaki akuratny obiektyw skonstruować i elektronikę która to
to obrobi.
Systemów/firm jak poniżej masz na świecie kilka.
https://www.cognex.com/industries/electronics/semico
nductors/wire-bonds-defect-inspection
-
20. Data: 2024-03-14 21:25:01
Temat: Re: Problem z niezawodnością chip-ów
Od: Atlantis <m...@w...com>
On 14.03.2024 18:54, Ghost wrote:
> To mowisz, ze w twoim swiecie klon IBM PC AT z lat 80 byl bardziej
> niezawodny niz dzisiejsze PC z np. i9?
Tutaj zaryzykowałbym stwierdzenie, że dobrze zrobione klony PC AT z lat
osiemdziesiątych mogły mieć stabilność na poziomie współczesnego
systemu. Po części odpowiadała za to prostota, zarówno hardware'u i
software'u.
Najgorzej prezentują się pod tym względem chyba komputery z przełomu XX
i XXI wieku. Zwłaszcza te przeznaczone na rynek konsumencki, z niższej i
średniej półki. Pamiętam, że wtedy pokutowało przekonanie, że komputer
raz na jakiś czas MUSI się zawiesić. I jasne - czasem odpowiadał za to
zabugowany/zawirusowany Windows, ale niestabilne płyty główne też nie
były rzadkością. Po prostu trzeba było z tym żyć.
Wtedy w życiu bym nie postawił serwera na takim sprzęcie. Natomiast
dzisiejszy "gamingowy" sprzęt poradzi sobie z takim zadaniem znakomicie,
działając stabilnie 24/7.