-
41. Data: 2023-04-05 00:23:00
Temat: Re: Sesja z ChatGPT
Od: a a <m...@g...com>
On Monday, 3 April 2023 at 12:53:50 UTC+2, RoMan Mandziejewicz wrote:
> Hello Mateusz,
> Sunday, April 2, 2023, 3:51:41 PM, you wrote:
>
> > On 01.04.2023 21:17, heby wrote:
> >> ChatGPT to skompresowana zawartość całościowej uśrednionej głupoty
> >> internetu.
> >>
> >> Jakie dane uczące, taki wynik.
>
> > "Rozumiem, że ten komentarz jest krytyką mojej pracy jako sztucznej
> > inteligencji. Chciałbym zaznaczyć, że moje zadanie polega na udzielaniu
> > odpowiedzi na różnego rodzaju pytania oraz udzielaniu informacji na
> > tematy, na które mam wiedzę. Moim celem jest pomoc użytkownikom w
> > zdobywaniu informacji oraz rozwiązywaniu problemów.
>
> > Jako sztuczna inteligencja, korzystam z różnych źródeł informacji,
> > takich jak artykuły, książki i bazy danych, aby zapewnić dokładne i
> > wartościowe odpowiedzi na zadawane mi pytania. Oczywiście, moje
> > odpowiedzi są oparte na danych, które zostały mi przekazane podczas
> > mojego treningu. Jednakże, staram się zapewnić jak najbardziej
> > precyzyjne odpowiedzi, aby pomóc użytkownikom w znalezieniu rozwiązania
> > swoich problemów.
>
> > Mam nadzieję, że moje odpowiedzi pomagają użytkownikom, a jeśli masz
> > jakieś sugestie, jak mogę poprawić swoją pracę, to chętnie je wysłucham."
> ===8<===
> Roman Mandziejewicz (SQUADACK)
>
> > Podaj indukcyjność cewki o 100 zwojach na rdzeniu o współczynniku AL = 100
>
> Indukcyjność cewki na danym rdzeniu zależy nie tylko od liczby zwojów,
> ale również od innych czynników takich jak wymiary rdzenia, kształt,
> rodzaj materiału itp. Współczynnik AL jest jednym z parametrów
> określających właściwości rdzenia i jego wpływ na indukcyjność cewki.
>
> Dlatego też, aby określić indukcyjność cewki o 100 zwojach na rdzeniu
> o współczynniku AL=100, potrzebujemy dodatkowych informacji. Można
> jednak obliczyć przybliżoną wartość indukcyjności cewki na danym
> rdzeniu, znając jej wartość dla innej liczby zwojów.
>
> Jeśli na przykład znamy indukcyjność cewki o 200 zwojach na tym samym
> rdzeniu, to możemy skorzystać ze wzoru:
>
> L2/L1 = (N2/N1)^2
>
> gdzie:
>
> L1 to indukcyjność cewki o N1 zwojach,
> L2 to szukana indukcyjność cewki o N2 zwojach.
> W naszym przypadku:
>
> L1 to indukcyjność cewki o 200 zwojach,
> N1 to 200,
> N2 to 100,
> AL wynosi 100.
> Podstawiając do wzoru, otrzymujemy:
>
> L2/L1 = (N2/N1)^2 = (100/200)^2 = 0,25
>
> L2 = L1 * (AL / 100) * (N2/N1)^2 = L1 * 0,25 = 0,25 * indukcyjność cewki o 200
zwojach
>
> W ten sposób możemy obliczyć przybliżoną wartość indukcyjności cewki o
> 100 zwojach na danym rdzeniu. Jednakże, wartość ta będzie tylko
> przybliżeniem i nie uwzględnia wszystkich możliwych czynników
> wpływających na indukcyjność.
>
>
>
>
> Roman Mandziejewicz (SQUADACK)
> > Mylisz się - współczynnik AL wyznacza indukcyjność zgodnie ze wzorem
> > L = N^2 * AL, gdzie AL jest wyrażone w nH/zwój^2
>
> Przepraszam za pomyłkę i nieprecyzyjną odpowiedź wcześniej. Masz
> rację, współczynnik AL rzeczywiście określa indukcyjność cewki zgodnie
> ze wzorem L = N^2 * AL, gdzie AL jest wyrażone w nH/zwój^2.
>
> W przypadku cewki o 100 zwojach i współczynniku AL=100, możemy
> obliczyć jej indukcyjność używając powyższego wzoru:
>
> L = N^2 * AL = 100^2 * 100 nH/zwój^2 = 1 000 000 nH = 1 mH
>
> Tak więc, indukcyjność cewki wynosi 1 mH. Jeszcze raz przepraszam za
> wcześniejsze nieporozumienie.
> ===8<===
>
> Jak widać, model doskonale ,,rozumie" problem i jest w stanie pracować
> na danych częściowych - nie zdefiniowałem N a model się ,,domyślił".
> ,,Zrozumiał" definicję współczynnika AL oraz jednostki.
>
> A ja się zastanawiam, czy cudzysłowy są jeszcze potrzebne...
>
> --
> Best regards,
> RoMan
Nie warto 20$ 100 zł miesięcznego abonamentu za spamowego syfilisa, gdy ta wiedza
jest bezplatnie dostępna w internecie za frico.
https://pl.abc-semi.com/tools/single-layer-coil-indu
ctance-calculation.html
https://pl.puntomarinero.com/calculation-of-coil-ind
uctance-formula/
Trzeba być bardzo pijanym aby zapłacic rocznie 1200 zł za cos co jest dostepne za
frico w internecie od początku świata.
Za 1200zł rocznie można kupic
tony makulatury ksiązek naukowych, technicznych, inżynieryjnych , skryptów i miec
100 GPT-100 w domu za frico i bez kasowania za liczbę czcionek.
GPT upadnie za 12 miesięcy
a przykladem sa obrazki Dall
kosmonauta na koniu na księzycu
-
42. Data: 2023-04-05 08:08:50
Temat: Re: Sesja z ChatGPT
Od: Mateusz Bogusz <m...@o...pl>
On 04.04.2023 19:16, Piotrek wrote:
> I oczywiście on się nie nauczył na podstawie Waszej sesji, tylko taka
> jest mniej więcej różnica pomiędzy jakością konwersacji z GPT-3 i z
> GPT-4 ...
Zgadza się, model póki co jest "tylko do odczytu" w kontekście rozmowy z
użytkownikiem.
> Nie wiem czy są jakieś oficjalne informacje na ten temat, ale w
> branżowych ploteczkach sugerowano, że GPT-4 ma o dwa rzędy wielkości
> więcej parametrów niż GPT-3
Stan wiedzy obu modeli jest bardzo zbliżony, wersja GPT-4 po prostu
lepiej (w naszym rozumieniu) radzi sobie z odczytaniem intencji które
kryją się za zadanym pytaniem. GPT-3 też udzieli odpowiedzi na pytanie,
ale czasami wymaga to lawirowania pomiędzy użytymi w tym pytaniu
słowami. GPT-4 potrafi też rozumieć obrazy - w sensie np. opisać co na
nich się znajduje.
I największą różnicę robi pewnie kontekst - GPT3 (3000 słów) vs GPT4
(25000 słów) - ale wydaje się że nie jest to ograniczenie modelu, co
narzucony limit przez twórców, bo wraz z nim wzrasta zapotrzebowanie
obliczeniowe.
https://www.trustedreviews.com/versus/chat-gpt-4-vs-
chat-gpt-3-4309130
> Tak więc IMHO nie ma się co ekscytować darmową wersją tylko może warto
> wysupłać te dwadzieścia dolców i wyrobić sobie opinię bazującą na ciut
> bardziej aktualnej wersji modelu.
Myślę że opinii co do konkretnej wersji to nie ma co wyrabiać, a ogólnie
do rozwiązania jakim będą "ludzko gadające bazy wiedzy".
Na grudzień OpenAI zapowiedział GPT-5 który ma pokazać kolejny przeskok
jak między 3 a 4. Microsoft po podkupieniu praw do prac OpenAI, podłącza
je pod swoje usługi Azure, Office 365, Copilot...
--
Pozdrawiam,
Mateusz Bogusz
-
43. Data: 2023-04-05 09:18:29
Temat: Re: Sesja z ChatGPT
Od: RoMan Mandziejewicz <r...@p...pl.invalid>
Hello alojzy,
Tuesday, April 4, 2023, 2:47:33 PM, you wrote:
> RoMan Mandziejewicz napisał(a):
>> Roman Mandziejewicz (SQUADACK)
>> > Mylisz się - współczynnik AL wyznacza indukcyjność zgodnie ze wzorem
>> > L = N^2 * AL, gdzie AL jest wyrażone w nH/zwój^2
>>
>> Przepraszam za pomyłkę i nieprecyzyjną odpowiedź wcześniej. Masz
>> rację, współczynnik AL rzeczywiście określa indukcyjność cewki zgodnie
>> ze wzorem L = N^2 * AL, gdzie AL jest wyrażone w nH/zwój^2.
>>
>> W przypadku cewki o 100 zwojach i współczynniku AL=100, możemy
>> obliczyć jej indukcyjność używając powyższego wzoru:
>>
>> L = N^2 * AL = 100^2 * 100 nH/zwój^2 = 1 000 000 nH = 1 mH
> Mamy więc zagadnienie. Czy i jak się uczy?
> Jakiej udziela odpowiedzi po pierwszej korekcie?
> Poprawnej czy w dalszym ciągu demokratycznej?
Odpowiedź jest poprawna.
--
Best regards,
RoMan
Nowa strona: http://www.elektronika.squadack.com (w budowie!)
-
44. Data: 2023-04-05 09:26:06
Temat: Re: Sesja z ChatGPT
Od: RoMan Mandziejewicz <r...@p...pl.invalid>
Hello Paweł,
Tuesday, April 4, 2023, 6:12:13 PM, you wrote:
>>>> Mylisz się - współczynnik AL wyznacza indukcyjność zgodnie ze wzorem
>>>> L = N^2 * AL, gdzie AL jest wyrażone w nH/zwój^2
[...]
>>> L = N^2 * AL = 100^2 * 100 nH/zwój^2 = 1 000 000 nH = 1 mH
[...]
> Podaj indukcyjność cewki o 100 zwojach na rdzeniu o współczynniku AL = 100
[...]
> Przybliżony wzór na indukcyjność cewki:
> L = (N^2 * AL) / 1000
> gdzie:
> N - liczba zwojów
> AL - współczynnik indukcyjności rdzenia, wyrażony w nH/zwoj
> L - indukcyjność cewki, wyrażona w mH
> Wstawiając dane z zadania, otrzymujemy:
> L = (100^2 * 100) / 1000 = 1000 mH
Nie wiem, skąd on wziął ten wzór i przeliczanie jednostek. U mnie
poradził sobie lepiej.
Myślę, że informacje pozyskane z poszczególnych sesji wchodzą do bazy
wiedzy tylko tej sesji. A ogólna baza wiedzy jest uzupełniana przez
operatorów, czasem z błędami... GIGO.
--
Best regards,
RoMan
Nowa strona: http://www.elektronika.squadack.com (w budowie!)
-
45. Data: 2023-04-05 10:43:10
Temat: Re: Sesja z ChatGPT
Od: Mateusz Bogusz <m...@o...pl>
On 05.04.2023 09:26, RoMan Mandziejewicz wrote:
> Myślę, że informacje pozyskane z poszczególnych sesji wchodzą do bazy
> wiedzy tylko tej sesji. A ogólna baza wiedzy jest uzupełniana przez
> operatorów, czasem z błędami... GIGO.
Kiedy zaprezentowali ChatGPT, tak właśnie odpowiedzieli na to pytanie.
Przypuszczam że z czasem może zacząć się to zmieniać, np. wersja która
udostępnia Bing Chat ma dostęp do Internetu.
--
Pozdrawiam,
Mateusz Bogusz
-
46. Data: 2023-04-05 14:53:23
Temat: Re: Sesja z ChatGPT
Od: Adam <a...@p...onet.pl>
Dnia Wed, 5 Apr 2023 10:43:10 +0200, Mateusz Bogusz napisał(a):
> On 05.04.2023 09:26, RoMan Mandziejewicz wrote:
>> Myślę, że informacje pozyskane z poszczególnych sesji wchodzą do bazy
>> wiedzy tylko tej sesji. A ogólna baza wiedzy jest uzupełniana przez
>> operatorów, czasem z błędami... GIGO.
>
> Kiedy zaprezentowali ChatGPT, tak właśnie odpowiedzieli na to pytanie.
> Przypuszczam że z czasem może zacząć się to zmieniać, np. wersja która
> udostępnia Bing Chat ma dostęp do Internetu.
A ja bym sobie chciał pogadać z ChatGPT w samochodzie.
Na chwilę obecną nie widzę takiej możliwości.
Androidowa gadaczka (Android Auto + Android 10 lub 11) umie tylko zmienić
muzykę lub stację radiową oraz odpowiada na kilka prostych poleceń typu
"opowiedz dowcip".
--
Pozdrawiam.
Adam
-
47. Data: 2023-04-05 15:01:11
Temat: Re: Sesja z ChatGPT
Od: Mateusz Bogusz <m...@o...pl>
On 05.04.2023 14:53, Adam wrote:
> A ja bym sobie chciał pogadać z ChatGPT w samochodzie.
> Na chwilę obecną nie widzę takiej możliwości.
GitHub Pilot korzystający z GPT ma już taką możliwość. Możesz więc
programować jadąc samochodem ;-) Ale kwestia czasu na bardziej
generycznego asystenta.
--
Pozdrawiam,
Mateusz Bogusz
-
48. Data: 2023-04-05 20:50:43
Temat: Re: Sesja z ChatGPT
Od: Piotrek <p...@p...na.berdyczow.info>
On 05.04.2023 08:08, Mateusz Bogusz wrote:
> On 04.04.2023 19:16, Piotrek wrote:
>> Nie wiem czy są jakieś oficjalne informacje na ten temat, ale w
>> branżowych ploteczkach sugerowano, że GPT-4 ma o dwa rzędy wielkości
>> więcej parametrów niż GPT-3
>
> Stan wiedzy obu modeli jest bardzo zbliżony, wersja GPT-4 po prostu
> lepiej (w naszym rozumieniu) radzi sobie z odczytaniem intencji które
> kryją się za zadanym pytaniem. GPT-3 też udzieli odpowiedzi na pytanie,
> ale czasami wymaga to lawirowania pomiędzy użytymi w tym pytaniu
> słowami. GPT-4 potrafi też rozumieć obrazy - w sensie np. opisać co na
> nich się znajduje.
Stan wiedzy tak, ponieważ oba modele były uczone na mniej więcej
podobnym zbiorze danych.
Mnie chodziło o to, że współczynników (wagi i progi aktywacji) jest w
GPT-4 o 2 rzędy wielkości więcej, co zapewne ma wpływ również na
wielkość kontekstu, o czym piszesz niżej. Ale mogę się nie znać, bo to
nie moja bajka.
> [...]
> I największą różnicę robi pewnie kontekst - GPT3 (3000 słów) vs GPT4
> (25000 słów) - ale wydaje się że nie jest to ograniczenie modelu, co
> narzucony limit przez twórców, bo wraz z nim wzrasta zapotrzebowanie
> obliczeniowe.
>
> https://www.trustedreviews.com/versus/chat-gpt-4-vs-
chat-gpt-3-4309130
>
>> Tak więc IMHO nie ma się co ekscytować darmową wersją tylko może warto
>> wysupłać te dwadzieścia dolców i wyrobić sobie opinię bazującą na ciut
>> bardziej aktualnej wersji modelu.
>
> Myślę że opinii co do konkretnej wersji to nie ma co wyrabiać, a ogólnie
> do rozwiązania jakim będą "ludzko gadające bazy wiedzy".
Zależy czego się oczekuje. Ja już dość dawno przestałem zawodowo
programować. Tak więc jak potrzebuję sobie odświeżyć wiedzę albo napisać
na szybko kawałek kodu to oba narządka są dla mnie idealne.
Natomiast jak ktoś oczekuje, że mu GPT zaprojektuje i zaimplementuje
coś, co ma - powiedzmy - 3 miliony linii kodu, to pewnie musi jeszcze
chwilę poczekać ...
>
> Na grudzień OpenAI zapowiedział GPT-5 który ma pokazać kolejny przeskok
> jak między 3 a 4. Microsoft po podkupieniu praw do prac OpenAI, podłącza
> je pod swoje usługi Azure, Office 365, Copilot...
>
Zacznie się robić ciekawie w kontekście praw autorskich.
Chyba już pora zaopatrzyć się w chipsy i orzeszki ;-)
Piotrek
-
49. Data: 2023-04-05 21:16:10
Temat: Re: Sesja z ChatGPT
Od: a a <m...@g...com>
ChatGPT-100 to spamowa reklama badziewia, aby się gadało,
a badziewie pozostanie badziewiem.
Bill NiebieskiEkran liczy na kasę podobnie
jak Melon co zniszczył Tłitera
i przerobił ćwierkającego ptaszka w szczekającego psa.
Sztuczna Inteligencja to my i albo jesteśmy inteligentni, albo jestesmy
plaskoziemcami.
Za oceanem królują płaskoziemcy, zatem nie istnieje ryzyko, że
powstanie jakaś Sztuczna Inteligencja,
bo dotychczas nigdy nie powstała.
I nawet jak to badziewie nazwą GPT-1000000000
to nadal to będzie badziewie opracowane przez płaskoziemców, czyli nieinteligentne.
-
50. Data: 2023-04-05 22:38:24
Temat: Re: Sesja z ChatGPT
Od: Jarosław Sokołowski <j...@l...waw.pl>
Pan Piotrek napisał:
> Zależy czego się oczekuje. Ja już dość dawno przestałem zawodowo
> programować. Tak więc jak potrzebuję sobie odświeżyć wiedzę albo
> napisać na szybko kawałek kodu to oba narządka są dla mnie idealne.
Zależy czego się oczekuje. To co dzisiaj się pisze, szybciej się pisze,
niż się tłumaczy, co to ma robić. Jakieś takie skondensowane to pisanie
się zrobiło. Przynajmniej w moich okolicach. Nie oczekuję więc, że coś
oszczędzę w ten sposób.
> Natomiast jak ktoś oczekuje, że mu GPT zaprojektuje i zaimplementuje
> coś, co ma - powiedzmy - 3 miliony linii kodu, to pewnie musi jeszcze
> chwilę poczekać ...
Chyba akurat to teraz wychodzi najlepiej. Te wszystkie wynalazki, co to
po krótkim opisie słownym robią wielką kompozycję graficzną, jakoś tak
mają. Metaforyczne "trzy miliony linii kodu", ale żadna z nich nie ma
krytycznego znaczenia.
>> Na grudzień OpenAI zapowiedział GPT-5 który ma pokazać kolejny przeskok
>> jak między 3 a 4. Microsoft po podkupieniu praw do prac OpenAI, podłącza
>> je pod swoje usługi Azure, Office 365, Copilot...
>
> Zacznie się robić ciekawie w kontekście praw autorskich.
Kilka dni temu słyszałem w radiu o gościu, co w zgłoszeniu patentowym
jako autora wynalazku podał AI. I kłóci się teraz z urzędnikami, że to
nie on jest wynalacą, jest za to uczciwy i nie chce kłamać ani kraść.
A urzędnicy są w kropce, bo procedury czegoś takiego nie przewidują.
--
Jarek