-
1. Data: 2017-11-29 11:44:56
Temat: Z teorii chaosu
Od: "M.M." <m...@g...com>
Witam
Standardowy problem: dokonujemy pomiaru zjawiska fizycznego z
określoną dokładnością, wrzucamy pomiary do symulacji, w
trakcie obliczeń wolno lub bardzo szybko tracimy dokładność z
powodu błędu pomiaru i zaokrągleń, ostatecznie dostajemy
trochę lub totalnie rozjechany wynik z rzeczywistością.
A co gdyby zrobić kilka pomiarów? Znowu mamy jakieś zjawisko
fizyczne, dokonujemy pomiaru i robimy symulację. Po pewnym
czasie widzimy, że wyniki obliczeń trochę się rozjechały
względem rzeczywistego zjawiska. Więc znowu dokonujemy
pomiaru, ale dodatkowo, korygujemy pomiar początkowy. Mieliśmy
np. pomiar z dokładnością do 6 miejsc po przecinku. Możemy
teraz wziąć wszystkie wartości z dokładnością do 7 lub 8 miejsc
po przecinku i wykonać symulację dla tych wszystkich hipotetycznych
wartości. Po dalszym czasie obserwacji dokonamy trzeciego pomiaru,
czwartego, i znowu skorygujemy warunki początkowe.
Zastanawia mnie, czy w ten sposób można ustalić tak dokładnie
warunki początkowe, żeby symulacja przebiegała wiernie przez
dłuższy czas. Np. mamy punkty w czasie:
t0, t1, t2, t3...;
t[i] - t[i-1] = const.
Robimy pomiar w t0 i symulujemy do czasu t1. Mamy bląd er1.
Robimy korektę warunków początkowych w t0, i symulujemy
do czasu t2. Czy błąd er2 w t2 będzie mniejszy niż er1, czy
będzie nadal losowy? Potem znowu korygujemy warunki w t0,
aby błędy er1 i er2 w czasie t1 i t2 były minimalne i znowu
puszczamy symulację do czasu t3. Czy er3 będzie jeszcze
mniejszy?
Jeśli nie można zmierzyć z dokładnością do 100 miejsc po
przecinku, to czy chociaż teoretycznie można odgadnąć z taką
dokładnością? Pomijam fakt, że takie odgadywanie mogłoby być
bardzo czasochłonne obliczeniowo.
Pozdrawiam
-
2. Data: 2017-11-30 04:51:21
Temat: Re: Z teorii chaosu
Od: bartekltg <b...@g...com>
On Wednesday, November 29, 2017 at 11:44:57 AM UTC+1, M.M. wrote:
> Witam
>
> Standardowy problem: dokonujemy pomiaru zjawiska fizycznego z
> określoną dokładnością, wrzucamy pomiary do symulacji, w
> trakcie obliczeń wolno lub bardzo szybko tracimy dokładność z
> powodu błędu pomiaru i zaokrągleń, ostatecznie dostajemy
> trochę lub totalnie rozjechany wynik z rzeczywistością.
>
> A co gdyby zrobić kilka pomiarów? Znowu mamy jakieś zjawisko
> fizyczne, dokonujemy pomiaru i robimy symulację. Po pewnym
> czasie widzimy, że wyniki obliczeń trochę się rozjechały
> względem rzeczywistego zjawiska. Więc znowu dokonujemy
> pomiaru, ale dodatkowo, korygujemy pomiar początkowy. Mieliśmy
> np. pomiar z dokładnością do 6 miejsc po przecinku. Możemy
> teraz wziąć wszystkie wartości z dokładnością do 7 lub 8 miejsc
> po przecinku i wykonać symulację dla tych wszystkich hipotetycznych
> wartości. Po dalszym czasie obserwacji dokonamy trzeciego pomiaru,
> czwartego, i znowu skorygujemy warunki początkowe.
>
> Zastanawia mnie, czy w ten sposób można ustalić tak dokładnie
> warunki początkowe, żeby symulacja przebiegała wiernie przez
> dłuższy czas. Np. mamy punkty w czasie:
> t0, t1, t2, t3...;
> t[i] - t[i-1] = const.
>
> Robimy pomiar w t0 i symulujemy do czasu t1. Mamy bląd er1.
> Robimy korektę warunków początkowych w t0, i symulujemy
> do czasu t2. Czy błąd er2 w t2 będzie mniejszy niż er1, czy
> będzie nadal losowy? Potem znowu korygujemy warunki w t0,
> aby błędy er1 i er2 w czasie t1 i t2 były minimalne i znowu
> puszczamy symulację do czasu t3. Czy er3 będzie jeszcze
> mniejszy?
>
> Jeśli nie można zmierzyć z dokładnością do 100 miejsc po
> przecinku, to czy chociaż teoretycznie można odgadnąć z taką
> dokładnością? Pomijam fakt, że takie odgadywanie mogłoby być
> bardzo czasochłonne obliczeniowo.
>
> Pozdrawiam
-
3. Data: 2017-11-30 05:05:52
Temat: Re: Z teorii chaosu
Od: bartekltg <b...@g...com>
On Wednesday, November 29, 2017 at 11:44:57 AM UTC+1, M.M. wrote:
> Witam
>
> Standardowy problem: dokonujemy pomiaru zjawiska fizycznego z
> określoną dokładnością, wrzucamy pomiary do symulacji, w
> trakcie obliczeń wolno lub bardzo szybko tracimy dokładność z
> powodu błędu pomiaru i zaokrągleń, ostatecznie dostajemy
> trochę lub totalnie rozjechany wynik z rzeczywistością.
>
> A co gdyby zrobić kilka pomiarów? Znowu mamy jakieś zjawisko
> fizyczne, dokonujemy pomiaru i robimy symulację. Po pewnym
> czasie widzimy, że wyniki obliczeń trochę się rozjechały
> względem rzeczywistego zjawiska. Więc znowu dokonujemy
> pomiaru, ale dodatkowo, korygujemy pomiar początkowy. Mieliśmy
> np. pomiar z dokładnością do 6 miejsc po przecinku. Możemy
> teraz wziąć wszystkie wartości z dokładnością do 7 lub 8 miejsc
> po przecinku i wykonać symulację dla tych wszystkich hipotetycznych
> wartości. Po dalszym czasie obserwacji dokonamy trzeciego pomiaru,
> czwartego, i znowu skorygujemy warunki początkowe.
>
> Zastanawia mnie, czy w ten sposób można ustalić tak dokładnie
> warunki początkowe, żeby symulacja przebiegała wiernie przez
> dłuższy czas. Np. mamy punkty w czasie:
> t0, t1, t2, t3...;
> t[i] - t[i-1] = const.
>
> Robimy pomiar w t0 i symulujemy do czasu t1. Mamy bląd er1.
> Robimy korektę warunków początkowych w t0, i symulujemy
> do czasu t2. Czy błąd er2 w t2 będzie mniejszy niż er1, czy
> będzie nadal losowy? Potem znowu korygujemy warunki w t0,
> aby błędy er1 i er2 w czasie t1 i t2 były minimalne i znowu
> puszczamy symulację do czasu t3. Czy er3 będzie jeszcze
> mniejszy?
>
> Jeśli nie można zmierzyć z dokładnością do 100 miejsc po
> przecinku, to czy chociaż teoretycznie można odgadnąć z taką
> dokładnością? Pomijam fakt, że takie odgadywanie mogłoby być
> bardzo czasochłonne obliczeniowo.
>
Zależy od układu. W astronomii się tak robi;-)
Patrzysz, o, kropka na niebie. Patrzysz za tydzień, przesunąła się
nieco (co gorsza mierzysz tylko kąt pod którą ją widzisz). Z tego
zgrubnie szacujesz orbitę. Szukasz jej po miesiącu - masz nowe dane,
możesz znacząco podnieśc dokłądność oszacowania jej orbity
(a tym samym i warunki początkowe).
Ale mozęmy tak zrobić, ponieważ układ jest prosty, a parametry grawitacyjny
Słońca i planet sa znane z duzą dokładnością.
Sprowadzając ukłąd do absurdalnie prostego, oscylator harmoniczny
o nieznanym okresie drgań. Im dłużej go mierzysz, tym dokałdniej
częstość poznasz. O ile ta częstość jest stała;>
W raeczywistości układy mają wiele czynników, które na niego
wpływają, cześć poza jakąkolwiek kontrolą lub wręcz losowych.
Długa obserwacja komory maszyny losującej lotto nic nam nie da,
ukłąd i tak się szybko rozjeżdza. To, że teoretyczne kulki musiały
byś ustawione z dokłądnością do 10^-dużo nic nei znaczy, bo nie
uwzględniłeś wszytkich czynników po drodze.
100 miejsc po przecinku to trochę absurdalne rządanie. Dokładność
najczęściej będzie rosnać z czasem liniowo lub jak pierwiastek.
Musisz napisać konkretniej.
pzdr
bartekltg
-
4. Data: 2017-11-30 17:16:48
Temat: Re: Z teorii chaosu
Od: "M.M." <m...@g...com>
On Thursday, November 30, 2017 at 5:05:54 AM UTC+1, bartekltg wrote:
> On Wednesday, November 29, 2017 at 11:44:57 AM UTC+1, M.M. wrote:
> > Witam
> >
> > Standardowy problem: dokonujemy pomiaru zjawiska fizycznego z
> > określoną dokładnością, wrzucamy pomiary do symulacji, w
> > trakcie obliczeń wolno lub bardzo szybko tracimy dokładność z
> > powodu błędu pomiaru i zaokrągleń, ostatecznie dostajemy
> > trochę lub totalnie rozjechany wynik z rzeczywistością.
> >
> > A co gdyby zrobić kilka pomiarów? Znowu mamy jakieś zjawisko
> > fizyczne, dokonujemy pomiaru i robimy symulację. Po pewnym
> > czasie widzimy, że wyniki obliczeń trochę się rozjechały
> > względem rzeczywistego zjawiska. Więc znowu dokonujemy
> > pomiaru, ale dodatkowo, korygujemy pomiar początkowy. Mieliśmy
> > np. pomiar z dokładnością do 6 miejsc po przecinku. Możemy
> > teraz wziąć wszystkie wartości z dokładnością do 7 lub 8 miejsc
> > po przecinku i wykonać symulację dla tych wszystkich hipotetycznych
> > wartości. Po dalszym czasie obserwacji dokonamy trzeciego pomiaru,
> > czwartego, i znowu skorygujemy warunki początkowe.
> >
> > Zastanawia mnie, czy w ten sposób można ustalić tak dokładnie
> > warunki początkowe, żeby symulacja przebiegała wiernie przez
> > dłuższy czas. Np. mamy punkty w czasie:
> > t0, t1, t2, t3...;
> > t[i] - t[i-1] = const.
> >
> > Robimy pomiar w t0 i symulujemy do czasu t1. Mamy bląd er1.
> > Robimy korektę warunków początkowych w t0, i symulujemy
> > do czasu t2. Czy błąd er2 w t2 będzie mniejszy niż er1, czy
> > będzie nadal losowy? Potem znowu korygujemy warunki w t0,
> > aby błędy er1 i er2 w czasie t1 i t2 były minimalne i znowu
> > puszczamy symulację do czasu t3. Czy er3 będzie jeszcze
> > mniejszy?
> >
> > Jeśli nie można zmierzyć z dokładnością do 100 miejsc po
> > przecinku, to czy chociaż teoretycznie można odgadnąć z taką
> > dokładnością? Pomijam fakt, że takie odgadywanie mogłoby być
> > bardzo czasochłonne obliczeniowo.
> >
>
> Zależy od układu. W astronomii się tak robi;-)
>
> Patrzysz, o, kropka na niebie. Patrzysz za tydzień, przesunąła się
> nieco (co gorsza mierzysz tylko kąt pod którą ją widzisz). Z tego
> zgrubnie szacujesz orbitę. Szukasz jej po miesiącu - masz nowe dane,
> możesz znacząco podnieśc dokłądność oszacowania jej orbity
> (a tym samym i warunki początkowe).
>
> Ale mozęmy tak zrobić, ponieważ układ jest prosty, a parametry grawitacyjny
> Słońca i planet sa znane z duzą dokładnością.
>
> Sprowadzając ukłąd do absurdalnie prostego, oscylator harmoniczny
> o nieznanym okresie drgań. Im dłużej go mierzysz, tym dokałdniej
> częstość poznasz. O ile ta częstość jest stała;>
>
> W raeczywistości układy mają wiele czynników, które na niego
> wpływają, cześć poza jakąkolwiek kontrolą lub wręcz losowych.
> Długa obserwacja komory maszyny losującej lotto nic nam nie da,
> ukłąd i tak się szybko rozjeżdza. To, że teoretyczne kulki musiały
> byś ustawione z dokłądnością do 10^-dużo nic nei znaczy, bo nie
> uwzględniłeś wszytkich czynników po drodze.
>
>
> 100 miejsc po przecinku to trochę absurdalne rządanie. Dokładność
> najczęściej będzie rosnać z czasem liniowo lub jak pierwiastek.
>
> Musisz napisać konkretniej.
>
Dziękuję za odpowiedź. Konkretniej póki co nie potrzebuję, chodziło mi
właśnie o takie ogóle informacje.
Często przy różnych okazjach słyszałem, że niektórych procesów
fizycznych w ogóle (bez względu na dokładność pomiaru) nie da się
symulować, ponieważ algorytmy szybko tracą dokładność. Nie spodobało
mi się to stwierdzenie i chyba w podświadomości mi się kołacze
cały czas, choć nie mam żadnej konkretnej potrzeby.
Faktem jest, że rozmowa jest prostsza gdy są jakieś konkretne
problemy, to może weźmy ze trzy: bardzo duży bilard, n-body w
astronomii i akwarium z rybkami ;-)
Po pierwsze zastanawia mnie, czy jakby przeiterować po wszystkich
programach o rozmiarze mniejszym niż np. 10^9 instrukcji, to
żaden z tych programów nie symulowałby bardzo dokładnie powyższych
trzech problemów? (Problem stopu jest trywialny, można przerwać
działanie programu jeśli wykonał więcej niż np. 10^15 instrukcji)
Po drugie właśnie, zastanawia mnie wpływ kolejnych pomiarów,
wykonanych już w trakcie rozpoczętego eksperymentu, na domniemanie
dokładności początkowych pomiarów. Napisałeś że 100 cyfr znaczących
to absurd, bo dokładność będzie rosła wolno. Hmmmm jakby to w
praktyce wyglądało np. dla symulacji Układu Słonecznego. Najpierw
pobieramy stan początkowy powiedzmy 50tys najbardziej masywnych
obiektów z US z dokładnością do powiedzmy 6 cyfr znaczących. Robimy
symulację na przesadnie dużej dokładności np. na 1000 cyfrach
znaczących. Po roku znowu mierzymy te 50tys obiektów i porównujemy z
wynikami symulacji. Potem jakimś algorytmem losowym modyfikujemy
w pomiarach początkowych np. piąte, szóste i siódme miejsce
po przecinku. Idealnie byłoby przejrzeć wszystkie wszystkie
kombinacje na piątego, szóstego i siódmego miejsca, ale dla
50tys obiektów byłoby to za trudne. Więc losowym algorytmem
szukamy takich pomiarów początkowych, aby wyniki symulacji po
roku były możliwie najbardziej zgodne z pomiarami po roku.
Po dwóch latach postępujemy podobnie, ale mamy już dwa pomiary,
po 10ciu latach mamy 10 pomiarów, a gdy pomiary zrobimy co miesiąc, to
mamy 120 pomiarów do porównywania. O ile zwiększy się dokładność
obliczeń z taką techniką (np. ze 120 pomiarami), względem
symulacji z jednym pomiarem? Zakładam że mamy bardzo dużo mocy
obliczeniowej na odgadywanie kolejnych miejsc po przecinku.
Pisałeś, że ilość cyfr znaczących rośnie raczej wolno, więc
cudów się nie spodziewam, ale wydaje się, że taka technika
powinna być bardzo skuteczna i w końcu dokładność pomiaru
początkowego zostałaby skorygowana do wielu cyfr znaczących?
Te same pytania można zadać względem bilardu i akwarium z rybkami.
Akwarium to (póki co) czysto teoretyczny problem, chyba by trzeba
zmierzyć pozycje i ruch wszystkich elektronów, neuronów i protonów? Ale
jakby była możliwość (nieinwazyjnego) pomiaru i symulacji tak
skomplikowanego układu, to potem dałoby się początkowy pomiar
wielokrotnie korygować i może w końcu symulacja byłaby wierna z
wyprzedzeniem na całe tygodnie czy miesiące?
Pozdrawiam
-
5. Data: 2017-11-30 18:33:37
Temat: Re: Z teorii chaosu
Od: bartekltg <b...@g...com>
On Thursday, November 30, 2017 at 5:16:50 PM UTC+1, M.M. wrote:
> On Thursday, November 30, 2017 at 5:05:54 AM UTC+1, bartekltg wrote:
> > On Wednesday, November 29, 2017 at 11:44:57 AM UTC+1, M.M. wrote:
> > > Witam
> > >
> > > Standardowy problem: dokonujemy pomiaru zjawiska fizycznego z
> > > określoną dokładnością, wrzucamy pomiary do symulacji, w
> > > trakcie obliczeń wolno lub bardzo szybko tracimy dokładność z
> > > powodu błędu pomiaru i zaokrągleń, ostatecznie dostajemy
> > > trochę lub totalnie rozjechany wynik z rzeczywistością.
> > >
> > > A co gdyby zrobić kilka pomiarów? Znowu mamy jakieś zjawisko
> > > fizyczne, dokonujemy pomiaru i robimy symulację. Po pewnym
> > > czasie widzimy, że wyniki obliczeń trochę się rozjechały
> > > względem rzeczywistego zjawiska. Więc znowu dokonujemy
> > > pomiaru, ale dodatkowo, korygujemy pomiar początkowy. Mieliśmy
> > > np. pomiar z dokładnością do 6 miejsc po przecinku. Możemy
> > > teraz wziąć wszystkie wartości z dokładnością do 7 lub 8 miejsc
> > > po przecinku i wykonać symulację dla tych wszystkich hipotetycznych
> > > wartości. Po dalszym czasie obserwacji dokonamy trzeciego pomiaru,
> > > czwartego, i znowu skorygujemy warunki początkowe.
> > >
> > > Zastanawia mnie, czy w ten sposób można ustalić tak dokładnie
> > > warunki początkowe, żeby symulacja przebiegała wiernie przez
> > > dłuższy czas. Np. mamy punkty w czasie:
> > > t0, t1, t2, t3...;
> > > t[i] - t[i-1] = const.
> > >
> > > Robimy pomiar w t0 i symulujemy do czasu t1. Mamy bląd er1.
> > > Robimy korektę warunków początkowych w t0, i symulujemy
> > > do czasu t2. Czy błąd er2 w t2 będzie mniejszy niż er1, czy
> > > będzie nadal losowy? Potem znowu korygujemy warunki w t0,
> > > aby błędy er1 i er2 w czasie t1 i t2 były minimalne i znowu
> > > puszczamy symulację do czasu t3. Czy er3 będzie jeszcze
> > > mniejszy?
> > >
> > > Jeśli nie można zmierzyć z dokładnością do 100 miejsc po
> > > przecinku, to czy chociaż teoretycznie można odgadnąć z taką
> > > dokładnością? Pomijam fakt, że takie odgadywanie mogłoby być
> > > bardzo czasochłonne obliczeniowo.
> > >
> >
> > Zależy od układu. W astronomii się tak robi;-)
> >
> > Patrzysz, o, kropka na niebie. Patrzysz za tydzień, przesunąła się
> > nieco (co gorsza mierzysz tylko kąt pod którą ją widzisz). Z tego
> > zgrubnie szacujesz orbitę. Szukasz jej po miesiącu - masz nowe dane,
> > możesz znacząco podnieśc dokłądność oszacowania jej orbity
> > (a tym samym i warunki początkowe).
> >
> > Ale mozęmy tak zrobić, ponieważ układ jest prosty, a parametry grawitacyjny
> > Słońca i planet sa znane z duzą dokładnością.
> >
> > Sprowadzając ukłąd do absurdalnie prostego, oscylator harmoniczny
> > o nieznanym okresie drgań. Im dłużej go mierzysz, tym dokałdniej
> > częstość poznasz. O ile ta częstość jest stała;>
> >
> > W raeczywistości układy mają wiele czynników, które na niego
> > wpływają, cześć poza jakąkolwiek kontrolą lub wręcz losowych.
> > Długa obserwacja komory maszyny losującej lotto nic nam nie da,
> > ukłąd i tak się szybko rozjeżdza. To, że teoretyczne kulki musiały
> > byś ustawione z dokłądnością do 10^-dużo nic nei znaczy, bo nie
> > uwzględniłeś wszytkich czynników po drodze.
> >
> >
> > 100 miejsc po przecinku to trochę absurdalne rządanie. Dokładność
> > najczęściej będzie rosnać z czasem liniowo lub jak pierwiastek.
> >
> > Musisz napisać konkretniej.
> >
>
> Dziękuję za odpowiedź. Konkretniej póki co nie potrzebuję, chodziło mi
> właśnie o takie ogóle informacje.
>
> Często przy różnych okazjach słyszałem, że niektórych procesów
> fizycznych w ogóle (bez względu na dokładność pomiaru) nie da się
> symulować, ponieważ algorytmy szybko tracą dokładność. Nie spodobało
> mi się to stwierdzenie i chyba w podświadomości mi się kołacze
> cały czas, choć nie mam żadnej konkretnej potrzeby.
Najprostrzym takim układem jest bilard na dwie kule, co jest w jakimś
tam sensie równoważne biladrowi dla jednego punktu na stole z dodatkową
okrągłą odbijającą barierą na środku. Chyba nawet udowodnili, że to
ergodyczne.
Prościej, możesz sobie zasymulować bliskie trajektorie i zobaczyć, że
ma toto dodatni wykłądnik Lapunowa (trajektorie uciekają od siebie
wykładniczo)
> Faktem jest, że rozmowa jest prostsza gdy są jakieś konkretne
> problemy, to może weźmy ze trzy: bardzo duży bilard, n-body w
> astronomii i akwarium z rybkami ;-)
Ten bialrd wcale nie musi być duży:)
>
>
> Po pierwsze zastanawia mnie, czy jakby przeiterować po wszystkich
> programach o rozmiarze mniejszym niż np. 10^9 instrukcji, to
> żaden z tych programów nie symulowałby bardzo dokładnie powyższych
> trzech problemów? (Problem stopu jest trywialny, można przerwać
> działanie programu jeśli wykonał więcej niż np. 10^15 instrukcji)
Rybek nie. N body i biladr symulowane bardzo dokładnie to napiszesz
za jednym posiedzeniem (n-body prawdopodobnie nie bedzie super wydajne).
Ale nie tu siedział problem, ale w tym, że skoro istotne są pozycje
z dokładnością 10^-90 100 jednostek czasu temu i dokładność 10^-50
50 jednostek temu, to w rzeczywistości istotne sa tam już oddziaływania
typu flutkacja termiczna czy pozycja Księżyca;-) coś, co pomijasz.
No, chyba, że chcesz iśc w keirunku 'symuluje wszystko'.
To wyłącznie teoretyczne zagadnienie. Dwa problemy:
-kwanty
-Wpływ Twojego kompa na 'wszystko'
> Po drugie właśnie, zastanawia mnie wpływ kolejnych pomiarów,
> wykonanych już w trakcie rozpoczętego eksperymentu, na domniemanie
> dokładności początkowych pomiarów. Napisałeś że 100 cyfr znaczących
> to absurd, bo dokładność będzie rosła wolno. Hmmmm jakby to w
> praktyce wyglądało np. dla symulacji Układu Słonecznego. Najpierw
> pobieramy stan początkowy powiedzmy 50tys najbardziej masywnych
> obiektów z US z dokładnością do powiedzmy 6 cyfr znaczących. Robimy
> symulację na przesadnie dużej dokładności np. na 1000 cyfrach
> znaczących. Po roku znowu mierzymy te 50tys obiektów i porównujemy z
> wynikami symulacji.
> Potem jakimś algorytmem losowym modyfikujemy
> w pomiarach początkowych np. piąte, szóste i siódme miejsce
> po przecinku.
A czemu tak kretyńsko? ;>
> Idealnie byłoby przejrzeć wszystkie wszystkie
> kombinacje na piątego, szóstego i siódmego miejsca, ale dla
> 50tys obiektów byłoby to za trudne. Więc losowym algorytmem
> szukamy takich pomiarów początkowych, aby wyniki symulacji po
> roku były możliwie najbardziej zgodne z pomiarami po roku.
> Po dwóch latach postępujemy podobnie, ale mamy już dwa pomiary,
> po 10ciu latach mamy 10 pomiarów, a gdy pomiary zrobimy co miesiąc, to
> mamy 120 pomiarów do porównywania. O ile zwiększy się dokładność
> obliczeń z taką techniką (np. ze 120 pomiarami), względem
> symulacji z jednym pomiarem? Zakładam że mamy bardzo dużo mocy
> obliczeniowej na odgadywanie kolejnych miejsc po przecinku.
Wydaje mi się, że już w poprzednim poście odpowiedizałem na to pytanie.
Zależy od układu. W pewnym momencie wpadniesz w dokładność, gdzie
trzeba uwzględnić zjawiska których nie symulujesz.
>
> Pisałeś, że ilość cyfr znaczących rośnie raczej wolno, więc
> cudów się nie spodziewam, ale wydaje się, że taka technika
> powinna być bardzo skuteczna i w końcu dokładność pomiaru
> początkowego zostałaby skorygowana do wielu cyfr znaczących?
"zależy od układu".
>
> Te same pytania można zadać względem bilardu i akwarium z rybkami.
> Akwarium to (póki co) czysto teoretyczny problem, chyba by trzeba
> zmierzyć pozycje i ruch wszystkich elektronów, neuronów i protonów? Ale
To wtedy wchodzisz w kwanty i jesteś w dupie, bo nie zmierzysz;-)
> jakby była możliwość (nieinwazyjnego) pomiaru i symulacji tak
> skomplikowanego układu, to potem dałoby się początkowy pomiarJ
> wielokrotnie korygować i może w końcu symulacja byłaby wierna z
> wyprzedzeniem na całe tygodnie czy miesiące?
Jakby był możliwy nieinwazyjny pomiar stanu pol kwantowych i meilisbyśmy
dostępną nieograniczoną moc obliczeniową (pewnie ciś lepszego niż maszyna Turinga też
by się przydało:)), nasza wiedza o wszehświecie byłaby pełna,
a nasz komputer i my w osobnym wszechświecie niż ten symulowany...
... to tak, czemu nie ;-)
pzdr
bartekltg
-
6. Data: 2017-12-01 13:57:34
Temat: Re: Z teorii chaosu
Od: "M.M." <m...@g...com>
On Thursday, November 30, 2017 at 6:33:39 PM UTC+1, bartekltg wrote:
> [...]
> Ten bialrd wcale nie musi być duży:)
Racja, rozmiar się nie liczy ;-)
> Rybek nie. N body i biladr symulowane bardzo dokładnie to napiszesz
> za jednym posiedzeniem (n-body prawdopodobnie nie bedzie super wydajne).
>
> Ale nie tu siedział problem, ale w tym, że skoro istotne są pozycje
> z dokładnością 10^-90 100 jednostek czasu temu i dokładność 10^-50
> 50 jednostek temu, to w rzeczywistości istotne sa tam już oddziaływania
> typu flutkacja termiczna czy pozycja Księżyca;-) coś, co pomijasz.
Racja, przy takiej dokładności wymachiwanie rękami na Ziemi wpływa na
ruch Jowisza... A mówili, że krzyczenie i wymachiwanie rękami nie ma
wpływu na wyniki symulacji ;-)
> No, chyba, że chcesz iśc w keirunku 'symuluje wszystko'.
> To wyłącznie teoretyczne zagadnienie. Dwa problemy:
> -kwanty
> -Wpływ Twojego kompa na 'wszystko'
>
>
>
> A czemu tak kretyńsko? ;>
Ok, powinienem napisać że dowolnym algorytmem.
> [...]
> Jakby był możliwy nieinwazyjny pomiar stanu pol kwantowych i meilisbyśmy
> dostępną nieograniczoną moc obliczeniową (pewnie ciś lepszego niż maszyna Turinga
też by się przydało:)), nasza wiedza o wszehświecie byłaby pełna,
> a nasz komputer i my w osobnym wszechświecie niż ten symulowany...
> ... to tak, czemu nie ;-)
Czyli mój niepokój był uzasadniony, że stwierdzenie, iż czegoś "nigdy nie policzymy",
jest, co prawda w bardzo minimalnym stopniu, dosadne. Kiedyś
się mówiło, że jak komputery będą mocniejsze, to policzymy wszystko.
Potem modna stała się teoria chaosu i się mawia, że nawet jak
dokładnie zmierzymy, to nie policzymy, bo taką wadę mają algorytmy. A
tymczasem jakieś, oczywiście bardzo minimalne i teoretyczne, możliwości
dokładnego symulowania procesów fizycznych - są. Nawet jak nie mamy
możliwości przeprowadzenia dokładnych pomiarów, to możemy pomiary
skutecznie przybliżać.
Poza tym jeszcze nikt nie przeiterował po wszystkich dużych programach i
nie wiadomo na 100%, czy nie istnieją jakieś lepsze algorytmy do
symulowania zjawisk niż obecnie znane.
Ale w praktyce to faktycznie trudno sobie wyobrazić tę teorię, najlepiej
jakby symulacja była w osobnym kosmosie :(
Pozdrawiam
-
7. Data: 2017-12-02 17:54:02
Temat: Re: Z teorii chaosu
Od: slawek <f...@f...com>
On Wed, 29 Nov 2017 20:05:52 -0800 (PST), bartekltg
<b...@g...com> wrote:
> Sprowadzając ukłąd do absurdalnie prostego, oscylator harmon=
> iczny
> o nieznanym okresie drgań. Im dłużej go mierzysz, tym doka=
> łdniej
> częstość poznasz.
Ale tak jest tylko w fizyce niekwantowej.
W kwantowej im dłużej mierzysz (coś robisz, np. laserkiem świecisz)
tym bardziej zmieniasz stan układu. A jak nic nie robisz... to też
nic nie wiesz.
-
8. Data: 2017-12-02 17:59:09
Temat: Re: Z teorii chaosu
Od: slawek <f...@f...com>
On Thu, 30 Nov 2017 08:16:48 -0800 (PST), "M.M." <m...@g...com>
wrote:
> Często przy różnych okazjach słyszałem, że ni=
> ektórych procesów
> fizycznych w ogóle (bez względu na dokładność pomi=
> aru) nie da się
> symulować, ponieważ algorytmy szybko tracą dokładno?=
> ?ć. Nie spodobało
> mi się to stwierdzenie
To nie tak. Stymulować można. No problem. Ale wartość tych symulacji
jest żadna, bo nijak nie pozwolą one przewidzieć co stanie się w
innej "symulacji" zwanej rzeczywistością.
A to że coś się podoba-niepodoba to nie jest argument naukowy.
-
9. Data: 2017-12-02 18:03:00
Temat: Re: Z teorii chaosu
Od: slawek <f...@f...com>
On Fri, 1 Dec 2017 04:57:34 -0800 (PST), "M.M." <m...@g...com>
wrote:
> Racja, przy takiej dokładności wymachiwanie rękami na Ziemi =
> wpływa na
> ruch Jowisza...
Niekoniecznie. Jeżeli jest dostatecznie daleko i krótko, to Einstein
zabrania.
-
10. Data: 2017-12-03 03:41:59
Temat: Re: Z teorii chaosu
Od: bartekltg <b...@g...com>
On Saturday, December 2, 2017 at 5:54:04 PM UTC+1, slawek wrote:
> On Wed, 29 Nov 2017 20:05:52 -0800 (PST), bartekltg
> <b...@g...com> wrote:
> > Sprowadzając ukłąd do absurdalnie prostego, oscylator harmon=
> > iczny
> > o nieznanym okresie drgań. Im dłużej go mierzysz, tym doka=
> > łdniej
> > częstość poznasz.
>
>
> Ale tak jest tylko w fizyce niekwantowej.
>
> W kwantowej im dłużej mierzysz (coś robisz, np. laserkiem świecisz)
> tym bardziej zmieniasz stan układu. A jak nic nie robisz... to też
> nic nie wiesz.
Jakbys czytał dalej, przeczytałbys i o kwantówce, trollusiu;-)
Jak zacząłęś juz czytać o kwantówce, to dojedź do kwantowego
efektu Zeemana i skoryguj półprawdy ze swojego stwierdzenia.
bartekltg