Demotywatory.pl

Pokaż panel
Szukaj

Komentarze ⬇⬇


Komentarze


Dodaj nowy komentarz Zamknij Dodaj obrazek
avatar Niktobcy
+4 / 8

super armageddon na następne pokolenia sobie kręcimy...

Odpowiedz Komentuj obrazkiem
avatar rafik54321
+1 / 7

A teraz cwaniaczki które mówiły że AI stworzy więcej miejsc pracy... No to słucham. Gdzie ci ludzie mają pracować? Bo jakoś nie widać alternatyw.

Mam tu takie porównanie.
Kiedyś rolnicy orali pola przy użyciu konia i pługu. Działało to, ale wolniej i mało wydajnie.
Przyszły ciągniki rolnicze, rolnictwo stało się wydajniejsze, tańsze, stworzył się przemysł ciągników rolniczych. Niby wszystko cacy, ALE, z AI i mechami, to MY jesteśmy końmi. Gdzie dziś pracują konie? Tylko w rekreacji, czy to w szkółkach jeździeckich czy ciągnąc wozy z turystami. Oprócz tego, koni się w zasadzie nie wykorzystuje.

Odpowiedz Komentuj obrazkiem
A Agitana
+3 / 3

@rafik54321 Nikt nie zaklada firmy po to, zeby dac ludziom prace. Tak samo nikt nie idzie do pracy dlatego, ze ktos potrzebuje pracownika. Kazdy dba o siebie.
A takich placzy, ze maszyny zastapia ludzi i nie bedzie pracy to nigdy nie brakowalo. Jak do tej pory zaden sie nie sprawdzil.

Odpowiedz Komentuj obrazkiem
A Albandur
0 / 2

@rafik54321 na IBM się świat nie kończy, inne korporacje mogą nie ufać AI aż w takim stopniu lub mieć inny model zarządzania spółką, w którym zwolnieni teraz specjaliści znajdą swoje miejsce. Takie zmiany trwają kilkanaście lat więc większość jeszcze dociągnie do emerytury, a reszta będzie ostnimi przedstawicielami swojego fachu jak np. Szewcy w dzisiejszych czasach. Nowi za to będą się szkolić nie w tworzeniu oprogramowania, a w obsłudze AI do tworzenia tego oprogramowania. Komputery też mialy wszystkim zabrać pracę i co? Pracujemy jeszcze więcej, księgowi więcej liczą, inżynierowie więcej rysują, a decydenci reagują na każdą informacje od razu podczas zarządzania firmami. W porównaniu do technologii sprzed 100 lat możemy wykonać całą pracę swoich pradziadków w poniedzialek do 10:00. Powiedz mi czy ktoś kończy tydzień pracy w poniedziałek o 10?

Odpowiedz Komentuj obrazkiem
avatar rafik54321
-2 / 4

@Agitana Bo do tej pory, maszyny tylko zwiększały efektywność pracy. Nie zabierały etatów, a je przekształcały.
To różnica.

Tutaj jednak sednem jest bezpośrednio coś innego. AI nie ma zwiększyć efektywności po przez przyśpieszenie produkcji. AI ma zastąpić człowieka na stanowisku. Robić to za niego i robić to szybciej.

Do tego mam ci podać konkretny przykład gdzie AI bezpośrednio zabiera pracę? Proszę bardzo.
https://www.wirtualnemedia.pl/artykul/levi-s-modelki-model-sztuczna-inteligencja-reklama
Branża modelingu się kłania. Zamiast zatrudniać modelów i modelki do cykania im fotek w celach reklamowych, pyk AI wygeneruje co trzeba. Tak jest taniej. To samo dotyczy fotografów, już bezpośrednio zmniejszają im się etaty. Gdzie się robi proporcjonalnie dużo etatów? Sugerujesz że modelka się przekwalifikuje na programistę wysokiego szczebla? I to w branży gdzie 35 latek czuje się już zagrożony przez młodszych programistów?

@Albandur kwestia czasu.
Kolejny przykład
https://www.gry-online.pl/hardware/google-zastapi-testerow-gier-ai/z024899
Co śmieszniejsze, google jako jedna z firm podpisała jakieś tam porozumienie o ograniczeniu rozwoju AI XD, no śmiech na sali.
Jak tylko inne firmy zobaczą że AI działa, to będą się w kolejce ustawiać po takie oprogramowanie.

"Takie zmiany trwają kilkanaście lat więc większość jeszcze dociągnie do emerytury," - a co za kilkanaście lat? Gdzie pracę znajdzie przyszłe pokolenie? Hmm?

Sęk w tym, że AI nie przenosi jednych pracowników na inne stanowiska. Sęk w tym, że AI będzie też samo siebie programować. Więc bardzo szybko może się okazać że nawet takie stanowisko nie jest bezpieczne. Wszystkie stanowiska po kolei są zagrożone.
Bo Musk pracuje nad mechem optimus.
https://www.komputerswiat.pl/aktualnosci/sprzet/optimus-zaprezentowany-elon-musk-pokazal-humanoidalnego-robota-od-tesli/yyc8pck
Połącz kropki. AI + mech optimus = masowe zwolnienia osób na najniższej krajowej.
Bo ten mech ma kosztować poniżej 100tys zł, a z pracy wywali 3 pracowników produkcji (bo ludzie pracują po 8 godzin dziennie, a robot może tyrać po 24 godziny na dobę, do póki mu prądu wystarczy).
Ile jest najniższa krajowa? 3tys zł? Ale pracodawca musi wydać 4,5tys zł miesięcznie na pracownika. No to cyk, mnożymy to razy 3 i wychodzi nam 13,5tys zł miesięcznie. Po niecałych 8miu miesiącach robot się zwraca, a jeszcze go sobie można w koszta wrzucić. To błyskawiczny zysk, a potem już cyk 13,5tys zł miesięcznie zostaje w kieszeni pracodawcy. Oszczędza na BHP, robot mu nie powie że idzie na L4 czy urlop itd. Zawsze można mieć kilka robotów na zapas, które jak stoją, to nie generują kosztu itd. Serio uważasz że to nierealne?
Kiedyś produkcja aut wymagała spawaczy, dziś w fabryce aut spawaczy nie ma.

Za 20 lat będzie bezrobocie rzędu powyżej 30%, a młode pokolenie nie będzie w stanie znaleźć żadnej pracy.

Odpowiedz Komentuj obrazkiem
avatar goldenfrog
-2 / 2

@rafik54321 Obawiam się, że masz rację w przewidywaniach i hurraoptymizm @Albandur oraz @Agitana jest naiwny, może brać się z nieznajomości sztucznej inteligencji, bo to niełatwy temat. Do tej pory, owszem, mieliśmy szereg rewolucji przemysłowych i każda z nich powodowała zapaść na rynku pracowniczym przez 1-2 dekady, ale w przypadku AI to całkiem inne zwierzę.

Na chwilę obecną szacuje się, że AI jest na poziomie 8-latka, ale rozwój trwa i jest poważne i realne zagrożenie, że AI przerośnie nas ostatecznie i nawet nie jesteśmy w stanie dzisiaj przewidzieć, ba, nawet sobie wyobrazić w jakim kierunku się ona rozwinie i jak wyglądać może świat, jeśli osiągniętoby poziom inteligencji wielokrotnie przekraczający ten, który znamy.

Pięknie mówi o tym prof. Dragan, można znaleźć na YT. Dodaje on więcej: dlaczego AI, jeśli rozwinie się mocno ponad nasz poziom, miałaby się w ogóle z nami liczyć? A czy my liczymy się ze zdaniem naszego psa lub konia? Konie poszły w odstawkę, nikt z nas ich nie pytał o zdanie i to samo może czekać nas. Naturalnym porządkiem świata jest rozwój i ewolucja, i przypuszczalnie wyższa inteligencja zawładnie niższą.

Ekonomia jest zbudowana wokół tematu zasobów, ich dostępności i dystrubucji. Tego rodzaju rywalizacji możemy się spodziewać również w przypadku AI: należy określić, o jakie zasoby może ona walczyć z człowiekiem, pierwszym pewniakiem, jaki przychodzi do głowy jest oczywiście energia niezbędna do funkcjonowania AI, ale także do dalszego rozwoju, co wiąże się z jej zwiększonym zapotrzebowaniem. Oczywiście nadrzędnym celem wszystkich organizmów żywych jest przetrwanie, AI może chcieć tego samego, a wówczas jej nadrzędnym celem stanie się potrzeba przetrwania, czyli zabezpieczenie energii i urządzeń na których jest zbudowana. Można sobie wyobrazić, że dążyć będzie do tego, żeby człowiek nie był w stanie jej wyłączyć, a jakie do tego podejmie środki, tego nie wiemy.

Kwitując na koniec najważniejsze: nie wiemy jak mocno AI się rozwinie, ani w jakim kierunku, nie wiemy nawet jak ona podejmuje decyzje. To ją odróżnia od innych rewolucji przemysłowych i zagrożeń, bo do tej pory mieliśmy pełnię kontroli nad nowymi wynalazkami. W przypadku AI nie wiemy prawie nic i niewiele możemy nawet antycypować.

Odpowiedz Komentuj obrazkiem
avatar rafik54321
+1 / 1

@goldenfrog warto nadmienić że ludzi i ich ewolucję ogranicza czas, a dokładniej ilość pokoleń które muszą przeminąć.
AI ogranicza jedynie moc obliczeniowa komputera. Jeśli dalibyśmy AI, wszystkie komputery świata, to w pół roku, zrobi postęp który normalnie trwałby dekadę.

W zasadzie, w pewnym sensie, dzisiejsze zabawy z AI, to trochę jak zabawa z radioaktywnymi pierwiastkami przed wiedzą że są radioaktywne. Błądzimy we mgle.

Odpowiedz Komentuj obrazkiem
avatar goldenfrog
-2 / 2

@rafik54321 W międzyczasie, gdy pisałem komentarz wrzuciłeś kolejny, więc dodam też coś więcej. Od jakiegoś czasu rozwija się tzw. affective computing, trudno to tłumaczyć na polski, ale chodzi o przetwarzanie emocji. Powstały różne więcej lub mniej humanoidalne roboty, które potrafią wykonywać zaprogramowane czynności, jak np. witanie klientów firmy, pomoc i towarzyszenie osobom starszym lub praca z dzieckiem autystycznym/nadpobudliwym. Do tej pory zakres ich umiejętności był bardzo ograniczony, ale z zaawansowaną AI i łącząc dalej kropki, robotami Boston Dynamics otrzymujemy humanoida, z którym nie będziemy w stanie konkurować. Są ciągle ograniczenia do pokonania, jak np. przetwarzanie obrazu i dźwięku w czasie rzeczywistym (AI Tesli może być kolejną kropką), przesyłanie dużych informacji między humanoidem a serwerem, dostęp do nieograniczonej ilości danych (i znowu kropka od Google czy Facebook), ale jak widać, narzędzia już są i czekają na złożenie w jedną całość.
Wszelkie porozumienia, jak wymienione przez Ciebie złożone przez Google, to oczywiście śmiech na sali. Wszyscy zadeklarują zgodność z etyką, itd., a za kulisami będą pracować nad rozwiązaniami stojącymi w opozycji do tego, co zadeklarowali. Wystarczy zobaczyć jak to dzisiaj działa w tak prostej sprawie jak przetwarzanie danych przez serwisy społecznościowe, jak Facebook, nawet sąd nie jest w stanie wyciągnąć od nich prawdy. Pęd do władania światem jest nie do powstrzymania, a jeśli komuś przyjdzie do głowy pomysł wycofania się z tego wyścigu, to bardzo szybko go porzuci, bo w obliczu prac innych firm/krajów nad uzyskaniem przewagi konkurencyjnej, szybko powrócą do tematu i aktywnie wszyscy będą brać w tym udział.
Głupia pandemia pokazała, że dla pieniędzy można szczepić bezmyślnie po wielokroć cały świat, a pamiętajmy że żądza władzy jest silniejsza od żądzy pieniędzy! I jeśli będzie można wyeliminować człowieka z listy płac, to do tego dojdzie. Może renta ekonomiczna by coś pomogła, ale wątpliwe, na razie to obserwujemy przeciwny zwrot tego wektora, choć kierunek niby ten sam.

Odpowiedz Komentuj obrazkiem
avatar goldenfrog
-2 / 2

@rafik54321 Moc obliczeniowa to jedno, transport danych jest większym problemem, na nasze szczęście, i to nas ciągle ratuje. Obawy zabawy z AI są znane: zagłada ludzkości, ale póki co, nikt sobie z tego nic nie robi.

Odpowiedz Komentuj obrazkiem
A Albandur
0 / 0

@rafik54321 i @goldenfrog, przesadzacie... będzie jak z każdym innym wynalazkiem- najpierw zachwyt nad możliwościami i strach przed niebezpieczeństwami, potem faza implementacji dostrzeganie wad i zalet, następnie okaże się, że jak wszystko na świecie również AI będzie posiadała swoje limity oraz ograniczenia i w końcu zaczną powstawać nowe branże, a istniejące zaczną się modyfikować w oparciu o nowe zdobycze technologiczne. Druga sprawa jest taka że nawet jak sam wynalazek rozwija się bardzo szybko, to nie znaczy że rynek zaraz zacznie go w pełni wykorzystywać, dla przykładu przemysł polski zaczął wprowadzać robotyzację na hale produkcyjne dopiero 25 lat po niemieckim- dlaczego? Bo dopiero po tym okresie siła robocza dobiła w Polsce do takich stawek że automatyzacja zaczęła się opłacać. Także to że panowie z doliny krzemowej dokonają przełomu za np. rok to wcale nie oznacza że ich zdobycze w miesiąc zawładną całym światem i każdą jego dziedziną. Będzie jak zwykle, dużo krzyku, trochę chaosu, a potem stabilizacja

Odpowiedz Komentuj obrazkiem
avatar goldenfrog
0 / 0

@Albandur Mówimy nie o narzędziu bez inteligencji, ale wręcz wizji zagrożenia ze strony inteligencji, która bardzo silnie nas może przewyższyć. Można to porównać do wizyty obcych, rozwiniętych tak mocno, że my dla nich jesteśmy jak dzisiaj kury dla nas. Jeśli będziemy mieć do wyboru - bez urazy - Ciebie, a humanoida, który jest 3 razy tańszy, nie męczy się, nie narzeka i nie choruje, to nie będzie nad czym się zastanawiać.

Odpowiedz Komentuj obrazkiem
A Albandur
0 / 0

@goldenfrog a powiedz mi dla kogo i co te humanoidy będą produkować skoro wszystkich nas wyślą na bezrobocie? Komu potrzebna jest armia tanich robotów produkujących dobra których nikt nie będzie w stanie kupić?

Odpowiedz Komentuj obrazkiem
avatar goldenfrog
0 / 0

@Albandur Pracować będzie wówczas tylko część społeczeństwa, dóbr będzie przyrastać i teoretycznie powinna być wówczas wypłacana renta ekonomiczna. Z tej renty ekonomicznej większość wróci do właścicieli biznesów/korporacji i mała grupa będzie żyć ponad stan, a reszta przeciętnie, choć w teorii może to być lepsze życie, niż kiedykolwiek w historii. Ale to są wyzwania, na które nie ma jeszcze odpowiedzi, ani rozwiązań.

Odpowiedz Komentuj obrazkiem
avatar rafik54321
0 / 0

@goldenfrog W istocie. AI to inny poziom. Tracimy bezpośredni nadzór nad tym co się dzieje. To jest niepokojące.

Zauważasz że AI powstaje po to aby nadać władzę jej twórcom i słusznie. Jednak chyba umknął ci inny fakt. To ich twór, pod ich nadzorem. Nie tworzysz broni nad którą nie zapanujesz. AI jest w pewnym sensie również bronią, a raczej na pewno zostanie i do takich celów użyta.
A twórcy AI są ludźmi, nie stworzą jej taką, aby ich zniszczyła. Musieliby popełnić jakiś duży błąd przy tworzeniu zabezpieczeń. A z pewnością takie tworzą, aż tak durni nie są XD.

Więc o ile los większości ludzi będzie raczej bardzo przykry, o tyle przetrwanie ludzkości jako gatunku raczej jest dość pewne (nie w 100% pewne, ale szanse są wysokie).

Znowu zauważ że taka AI może dojść do jeszcze jednego wniosku. Zapewnienie ludziom łatwego wygodnego życia jako gwarant zabezpieczenia egzystencji AI. Bo do póki ludzie będą zadowoleni, nie będą jej przeszkadzać.
Dla AI czas nie jest żadnym ograniczeniem. Dla AI będzie ważne przetrwanie jako całość, a ograniczając swoje możliwości obliczeniowe może przetrwać dłużej. Np dyski twarde można odłączyć od prądu całkowicie bez utrady danych :) .
Oczywiście tak może być, wcale nie musi.

Pytanie brzmi nie jak bardzo rozwinie się AI, bo to że rozwinie się w sposób niepojęty dla ludzi jest raczej pewne.
Pytanie brzmi jak szybko to się stanie.

Do tego AI cierpi na jeszcze jeden drobny problem. To w pewnym sensie "psychopata". AI nie odczuwa emocji, nie posiada ich. Dla AI 2+2=4 i kropka. Nie zawacha się aby np uśmiercić X osób by uratować Y osób, bo przecież z statystycznego punktu widzenia to słuszne, ale idąc taką logiką, szybko można dojść do nadużyć.
Tylko jak maszynie zaimplementować emocje? I czy to nie jest jeszcze gorsza droga?

W zasadzie, naukowcy powinni sobie najpierw odpowiedzieć na pytanie "czy tworzenie AI to dobry pomysł?".

Odpowiedz Komentuj obrazkiem
avatar rafik54321
0 / 0

@goldenfrog Takie boty do kontaktów personalnych będą o tyle lepsze, że mogą po prostu zbierać drastycznie więcej danych niż ludzka percepcja. My jedynie obserwujemy daną osobę, jej mowę niewerbalną, gesty, miny itd.
Bot może zebrać więcej danych. Zmierzyć temperaturę ciała, rozszerzenie źrenic, tętno i ciśnienie krwi, być może (choć to trochę Sci-fi) nawet skanować aktywność mózgu po przez mikropola magnetyczne które tworzy każdy przepływ prądu (w tym również w mózgu).
To w prostej linii idealny wykrywacz kłamstw.

Największym zagrożeniem będzie fuzja wielu AI do postaci silnej (samoświadomej) AI. Wtedy zacznie się dopiero cyrk na grubo.

Samo przetwarzanie danych po opracowaniu algorytmu, będzie problemem tylko mocy obliczeniowej. Sam przesył danych to też mniejszy problem, stosunkowo prosty do ogarnięcia. Im krótsze fale, tym więcej danych mogą przesłać, ale jednocześnie mają mniejszy zasięg. Na obrębie jednak pojedynczego zakładu produkcyjnego, zasięg nie jest większym problemem. Niech taka hiperszybka fala ma zasięg tylko 500m, żaden problem, bo postawi się ze 4 odbiorniki na hali i czapeczka.

Co do tych porozumień, to mam wrażenie że one mają inny cel. Strzelam, że zwyczajnie AI opracowywane przez firmy które te porozumienie podpisały są znacząco mniej zaawansowane niż te u konkurencji. Chodzi o ugranie czasu po to, aby konkurencję dogonić.
Bo wiesz, jakby poszedł jakiś powszechny hejt na AI i konkurencja na czele musiałaby zwolnić, to "peleton" dałby radę dogonić czołówkę :P .

Odpowiedz Komentuj obrazkiem
A Albandur
0 / 0

@goldenfrog haha to wspaniale, może da się to jednak przyśpieszyć xD

Odpowiedz Komentuj obrazkiem
avatar rafik54321
0 / 0

@Albandur bynajmniej. Nim ogarnięto technologię nuklearną, najpierw używano jej w złych celach niż dobrych. Najpierw ogarnięto bombę atomową, później elektrownie atomowe.
Naiwnie uważasz że AI najpierw będzie użyta w pacyfistycznych celach?

To może ugryziemy temat w rozważaniach z innej strony.
Co sądzisz o zaprojektowaniu nadczłowieka? Usiadła banda naukowców i poskładała DNA tak, że mamy gościa 185cm wzrostu, ale o sile takiej że podniósłby samochód. IQ na poziomie 1000pkt. Mógłby biegać po 150km/h. Regenerowałby się w kilkanaście minut (po obrażeniach), odrastały mu kończyny, a na dodatek był nieśmiertelny. Żeby było jeszcze zabawniej, bez powietrza by wytrzymywał miesiące, a bez jedzenia lata. Mniejsza o to czy to faktycznie możliwe, załóżmy że takiego człowieka tworzą.
Uważasz że tacy ludzie nie będą zagrożeniem? Bo AI może stać się takim "cybernetycznym nadczłowiekiem".

Argument o opóźnionej robotyzacji w Polsce jest totalnie do bani. Nie było wywołane to brakiem siły roboczej, a brakiem siły nabywczej.
Do 1989r w Polsce był PRL, a już wtedy polski przemysł był dobre 30 lat do tyłu, względem zachodu.
Na zachodzie już od dekad istniały popularne i znane dziś marki. W Polsce, polskie marki, dopiero w latach 90tych powstawały, często od jakiś manufaktur. Nim taki mały biznes urósł tak bardzo że było go po prostu stać na robotyzację, minęło tyle czasu.

Różnica w tym, że dziś, korporacje stać na taką robotyzację z marszu, ba - to ich własny produkt!

Oczywiście, upowszechnienie się AI na cały świat zajmie jakiś czas, ale nie będzie to np 50 czy 100 lat, tylko raczej 10 lat lub nawet mniej.
Zauważ że dopiero teraz powstają pierwsze użyteczne w ograniczonym stopniu AI, a JUŻ wchodzą do użytku i wypierają ludzi. Przykłady podałem. A to de facto dopiero działający prototyp.

Odpowiedz Komentuj obrazkiem
avatar rafik54321
0 / 0

@Albandur "a powiedz mi dla kogo i co te humanoidy będą produkować skoro wszystkich nas wyślą na bezrobocie? Komu potrzebna jest armia tanich robotów produkujących dobra których nikt nie będzie w stanie kupić?" - nie rozumiesz idei ewolucji celu, prawda?

Zakładamy tu bardzo konkretny scenariusz rodem z terminatora (oczywiście to nie jedyny możliwy, ale jednak możliwy).

Jakiś bogol, nazwijmy go "Kasiarz" ma korporację ArdeIdre, która pracuje nad AI. Tworzą silną, samoświadomą AI, która ma produkować dobra dla ludzi i to robi. Sukcesywnie wypiera ludzi ze stanowisk, a rząd wprowadza dochód podstawowy bo jest z czego.
Jednocześnie AI, aby być coraz bardziej skuteczna, rozwija się. Dokłada sobie nowe procesory, tworzy algorytmy itd. Kasiarz się cieszy, AAAALLLLEEEE, AI może zmienić swoją perspektywę, przewyższając nas tak bardzo, że zrówna nas ze zwierzętami i tak nas potraktuje. Uzna że musi odebrać nam wszelkie prawa by nas chronić. Bo przecież po to ją Kasiarz stworzył.
Ludzie naturalnie się nie podporządkują więc bitka gotowa. W otwartej wojnie z AI raczej byśmy szans nie mieli. Produkcja robota trwa krócej niż urodzenie dziecka, jego dorośnięcie i wyszkolenie, sama liczebność dałaby nam srogo popalić.
A potem AI trwałaby sama dla siebie, bo czemu nie? Biorąc pod ochronę planetę jako całość.

Dla AI celem "życia" będzie najpewniej poznanie i zrozumienie.

Odpowiedz Komentuj obrazkiem
avatar goldenfrog
0 / 0

@rafik54321 No właśnie z tymi zabezpieczeniami to jest tak, że ich praktycznie nie ma. Możemy porównać to trochę do jednostki ludzkiej: większość jest normalna, ale zdarzają się psychole (i geniusze) i za bardzo nie wiemy, poza przypadkami uszkodzeń fizycznych, co jest nie tak z ich mózgami i myśleniem, i stwierdzamy odchyły empirycznie: gdy pojawią się działania danej jednostki. Tak samo jest dziś z AI. Jako że nie wiemy, co siedzi w "głowie" AI, to trudno coś przewidywać i mamy dziś świetną zabawę we wróżki. Jak będzie, nikt nie wie.

Ciekawe są też rozważania o obawach związanych ze stawianiem AI zadań: przy dobrze postawionym zadaniu może ona wykonywać w nieskończoność zadaną pracę, a w innym przypadku uśmiercić całą ludzkość albo jej część. Podawany jest często przykład zadania opracowania lekarstwa na nieuleczalną chorobę: AI zarazi całą populację ludzi na świecie, a potem będzie szukać leczenia na przykład za pomocą metod ilościowych, aby tylko osiągnąć cel, bez względu na cenę i środki.

Nikt nie wie, jak to się rozwinie i skończy, ale nie wolno być ignorantem i warto uświadamiać ludzi o zagrożeniach.

A te wszystkie emocje to według mnie mocno przeestymowane są. Człowiek to takie urządzenie typu machine-learning, które ma prekodowane (genetyka) pewne wzorce i odpowiedzi na nie, według schematu akcja-reakcja. Uczucia dla mnie to właśnie podobny rodzaj programowania (mapowania), oczywiście biorą w tym udział wszystkie sensory (zmysły oraz receptory, jak te reagujące w mózgu na procesy biochemiczne zachodzące pod wpływem różnych impulsów) i na pewne zdarzenia występują ciągi wydarzeń. Chętnie przeprowadziłbym eksperyment, gdzie odciąłbym część procesów biochemicznym i chociażby wyeliminował oksytocynę i dopaminę. To by przypuszczalnie spowodowało zanik miłości macierzyńskiej (przywiązania) i partnerskiej (pożądania). Myślę, że przy odpowiednim modelu, można te emocje zamodelować także w AI, choć może się wydawać, że trudno jest wywołać - dla przykładu - ból.

Emocje wydają mi się przy tym prostsze od samoświadomości. Małe dziecko nie jest samoświadome, ale z wiekiem, w miarę rozwoju jego mózgu (sieci neuronowej) samoświadomość pojawia się samoistnie. Można przypuszczać, że potrzebne jest osiągnięcie pewnej masy krytycznej (rozmiar sieci), aby samoświadomość zaistniała. Kiedy to się stanie z AI, tego nie wiadomo, ale już są przecieki/doniesienia, że istnieją modele samoświadome.

Odpowiedz Komentuj obrazkiem
avatar goldenfrog
0 / 0

@rafik54321 Odniosę się jeszcze krótko do dwóch kwestii.
Przepływ danych jest najwęższym gardłem w systemach obliczeniowych, ich przesył i synchronizacja w systemach rozproszonych są ciągle bardzo poważnym wyzwaniem.
Boty, o których napisałeś, w połączeniu z bardzo rozwiniętym affective computing (jeszcze tego nie ma) stanowić będą bardzo mocne narzędzie, chociażby w marketingu czy w manipulacjach. Największe marzenie specjalistów od manipulacji.

Odpowiedz Komentuj obrazkiem
avatar goldenfrog
0 / 0

@Albandur Zachęcam do nauki ekonomii, przestanie być śmiesznie, a zacznie być zrozumiale i świadomie.

Odpowiedz Komentuj obrazkiem
avatar rafik54321
0 / 0

@goldenfrog to jak z systemami obrony przeciwko pociskom nuklearnym. Oficjalnie też żadnej nie ma, ale tak po prawdzie - wiedząc że twój wróg ma takie pociski, nie stworzyłbyś systemu obrony przeciw nim? Z pewnością, ale czy byś się nim chwalił? XD.

Hakerzy nie będą łamali zabezpieczeń o których nie wiedzą, a z pewnością znalazłby się świr który by takie zabezpieczenia chciał łamać, więc takie zabezpieczenia są "tajne".

Tylko różnica pomiędzy AI a człowiekiem jest taka, że to pierwsze sami projektujemy.

Być może sensownym zabezpieczeniem dla AI, mogłoby być dodanie warunku, że każde działanie AI nie może być sprzeczne z prawem. Prawem które ustalają ludzie.
Wtedy takie przytoczone przez ciebie szukanie leku "ilościowo" nie ma racji bytu, bo by było nielegalne, tak jak celowe zarażanie ludzi.

"A te wszystkie emocje to według mnie mocno przeestymowane są. Człowiek to takie urządzenie typu machine-learning, które ma prekodowane (genetyka) pewne wzorce i odpowiedzi na nie, według schematu akcja-reakcja. " - gdyby tak było, to nie występowałaby psychopatia.
Podobnym argumentem błędności twojego założenia są depresje, które potrafią u ludzi występować samoistnie. Mamy 2 różnych ludzi i każdy zareaguje na sytuację inaczej (czasem dużo bardziej inaczej, czasem mniej).
Jednak to co u ludzi jest ciekawe, to fakt, że właśnie ludzki proces myśleniowy składa się z 2 równorzędnych procesów, procesu emocjonalnego oraz logicznego i to sam człowiek decyduje którego usłucha.

"ałe dziecko nie jest samoświadome, ale z wiekiem, w miarę rozwoju jego mózgu (sieci neuronowej) samoświadomość pojawia się samoistnie. Można przypuszczać, że potrzebne jest osiągnięcie pewnej masy krytycznej (rozmiar sieci), aby samoświadomość zaistniała." - szacuje się że AI ma poziom 8latka. 8latek już jest w pełni samoświadomy, ma ograniczoną wiedzę o świecie, ale jest świadomy.
Zwłaszcza że zasadniczo każde dziecko to wcześniak, bo ludzka ciąża powinna trwać sporo ponad rok.

Przesył danych jest problematyczy, ale to taki sam problem jak wybudować bazę orbitalną w okół Księżyca. To wyłącznie problem natury "jak tam dowieźć sprzęt". Coś co można rozwiązać różnymi forsownymi rozwiązaniami.

Tylko jest jeszcze jeden niuans odnośnie władzy takich korporacji. AI da im władzę nad ludźmi, bardzo możliwe że nawet politycy i wojsko przestaną mieć rację bytu. Tylko po co? Po co wtedy korporacji ludzie? Mówimy tu o przeciętnym obywatelu.
Po to aby sobie po prostu byli?

Odpowiedz Komentuj obrazkiem
avatar goldenfrog
0 / 0

@rafik54321 "Po co wtedy korporacji ludzie?" - chociażby z żądzy władzy, najsilniejszej ze wszystkich (może poza seksualnymi, których jest notabene pochodną, imho).

Wszystkie nasze rozważania to zabawy w przewidywanie przyszłości, choć więcej na bazie logicznych wnioskowań, niż wróżenia z fusów. Ja osobiście zawsze używam głównie analogii i abstrakcji uzupełnianej wiedzą, krytycznym myśleniem i wyobraźnią, ale jaki świat stworzyłaby inteligencja wielokrotnie nas przewyższająca, tego nie wiem, i żadna z moich metod nie działa (i tylko wyobraźnia pozostaje na "polu walki", ale też nie daje rady).

Co do mocy obliczeniowych, to żeby być ścisłym: postęp w zwiększaniu mocy obliczeniowych procesorów jest, ale coraz trudniej go utrzymać z uwagi na niestabilność układów tranzystorowych przy tak olbrzymim upakowaniu i teoretycznie można użyć przetwarzania współbieżnego na wielu procesorach/maszynach tworząc farmę obliczeniową, ale ciągle mamy dwa ograniczniki: słabość algorytmów przetwarzania współbieżnego/rozproszonego oraz problem przesyłu danych (pomiędzy wątkami/procesorami, pomiędzy pamięcią operacyjną a bazami danych, pomiędzy hostami, a nawet brak wystarczającej pamięci RAM na zamodelowanie sieci o rozmiarach ludzkiego mózgu). To są dziś najwęższe gardła i żadnego z nich nie można na dzień dzisiejszy zażegnać.
Dzisiejsze sieci neuronowe to tylko namiastki ludzkiego mózgu, który szacunkowo składa się ze 100 miliardów neuronów i 100 bilionów synaps (odpowiednio 100 tera i 100 000 tera). Ilość neuronów można pominąć w rozważaniach, bo jest ich 3 rzędy wielkości mniej. Ale, na dzień dzisiejszy jest już problem z zmodelowaniem samych neuronów, bo przy minimalnym wariancie 8 bitów na neuron (raczej bez sensu) daje to 100 terabajtów pamięci, w rozsądne 32 bity na neuron to już 400 terabajtów, a przy 64 bitach dochodzimy niemalże do petabajta danych. Synapsy to już inna bajka (choć takie same modelowanie), nie ma nawet po co liczyć, bo to abstrakcja na dzień dzisiejszy i przy pełnym modelowaniu można dojść do exabajta danych.
Czy potrzebujemy aż tylu neuronów i synaps? Raczej nie, ale ciągle nie ma o czym mówić. Lepiej zadać inne pytanie: czy możemy zamodelować to inaczej i ograniczyć ilość potrzebnej pamięci/mocy obliczeniowej? Pewnie tak, i w tym kierunku to zmierza.

Co do emocji i uczuć, to dalej będę się upierał, że to ML (machine learning), choć otwarty jestem na opinie innych, i trochę rozwinę moje spojrzenie na to. Widzę to jako ML ze specjalnymi funkcjami, oczywiście trzeba sięgnąć do ludzkiego mózgu, żeby to zamodelować. Uczucia są odpowiedzią na bodźce wysyłane przez receptory i uruchamiają szereg skomplikowanych procesów biochemicznych/elektrycznych w organizmie, to jest właśnie ta część "gadzia" mózgu. Procesy te można w większości pominąć, bo służą one wprowadzeniu ciała fizycznego w odpowiedni stan, jak na przykład stres aktywuje wszystkie mięśnie, dla naszych rozważań ważniejsze są impulsy elektryczne trafiające do mózgu, ale przetwarzanie części mózgowej trzeba zachować. Dochodzimy do istoty problemu, o czym zresztą już wspomniałeś, czyli dwóch (a raczej kilku) systemów pracujących współbieżnie - podstawowego (racjonalnego) oraz emocjonalnego (gadziego). Systemy się komunikują, być może przenikają, ale są w dużej mierze autonomiczne, przy czym przetwarzanie emocjonalne (sterowane impulsami z receptorów) jest formą nadrzędną nad przetwarzaniem podstawowej sieci neuronowej mózgu. Na emocje składają się m.in. wszystkie odruchy atawistyczne oraz uczucia. Weźmy dla przykładu uczucie strachu: silne impulsy wywołujące strach mogą doprowadzić do całkowitego wyłączenia procesowania racjonalnego, źródłem tych zachowań jest z reguły cel zachowania życia i zdrowia. Trudno mi sobie wyobrazić, że model ML (wzorzec-odpowiedź) nie zamodeluje przetwarzania emocjonalnego, bo czego miałoby w nim brakować? Żadnego palca bożego nawet nie rozważam, bo nie jesteśmy w żłobku ani na lekcji religii. Oczywiście potrzebny jest model współpracy mi

Odpowiedz Komentuj obrazkiem
avatar rafik54321
0 / 0

@goldenfrog tylko po co ci ludzie mieliby słuchać korporacji, skoro korporacja nie daje im pieniędzy, za które by mogli cokolwiek kupować? To się tak idiotycznie zapędza.

Zresztą, przeciętni ludzie, mając "złoty kurek z kasą", zgodzą się na dużo ograniczeń czy nawet inwigiliacji. Bo jeśli masz dochód bez pracowania, to po co lewizna? A skoro nikt nie wali lewizny, nikt się nie boi inwigilacji XD. Taka znów dziwna pętla się robi.

W pewnym sensie, taka "klatka" by była zbyt wygodna, aby uwierała - to chyba najlepsza metafora.

Oczywiście że tu się tylko bawimy myślą. Choćby z tego powodu że nie znamy całości sytuacji a tylko to co przechodzi do mediów.
Bo być może (totalny strzał z czapy), AI już jest gotowa od 20 lat i teraz tylko się nas oswaja z jej istnieniem XD, może, choć mało prawdopodobne, choć jeśli dopuszczamy teorie spiskowe w stylu "że korporacje chcą nad nami władzy" to powyższa hipoteza nie jest taka nieprawdopodobna :P .

Jednak wracając na ziemię. Zagrożenie jest realne. Nie powiedziałbym że ogromne, ale realne. Jakby było np 10% szans na to że w wysokiej trawie jest jadowity wąż, to raczej nikt by nie chciał tam sobie hasać XD, i takie podejście mam do AI.

Tylko że moc obliczeniową można zwiększać w bardziej toporny sposób. Na pewno słyszałeś o klasterowym komputerze złożonym z PS3, w swoim czasie bodajże najmocniejszy komputer na świecie. To w zasadzie nie miało ograniczeń, bo zawsze można było dołożyć kolejną konsolę XD. Rozwiązanie rodem z kacapskiej armii, "na pałę", ale by działało. A taka hiper AI wcale nie musi mieścić się w kompaktowym komputerze. Może to być komputer wielkości osiedla, bo czemu nie? No może osiedla to trochę przesada, ale budynku?

Znowu rozwiązanie słabości algorytmów to właśnie idealne zadanie dla AI, która będzie świetna w optymalizacji.

Dotąd skupiamy się na samej AI, ale wydaje mi się, że tuż obok, naturalnym procesem który "może utrzymać ludzi w grze", jest po prostu cybernetyczne udoskonalanie ludzkiego mózgu.
Np większość ludzi ma problem z przeliczaniem długich działań w pamięci, cyk "implanto-kalkulator". No i już w pamięci przeliczysz każdy wzór w ułamek sekundy. To równie trudne co rozwój AI, ale to jedyna droga aby mieć szansę dogonić AI.

Odpowiedz Komentuj obrazkiem
avatar rafik54321
0 / 0

@goldenfrog CDN W swoich rozważaniach skupiasz się tylko na jednym kierunku działania emocji. Bodziec - emocja - reakcja, ALE, emocje też potrafią występować samoistnie, w łańcuchu emocja - reakcja - bodziec.

Bo zauważ, że jeśli odłączymy człowieka od wszelkich bodźców, to powinien niemalże "zamarznąć", "zawiesić się" bo nie ma bodźców, więc nie ma emocji, więc nie ma reakcji, a doskonale wiemy że tak to nie działa.

To jest proces dwukierunkowy. Bodźce wywołują emocje, a te reakcje, owszem, ale to też emocje mogą wywoływać reakcje, a te znów bodźce.
Znowu zobacz na właśnie depresję. Człowiekowi nic nie brakuje, ma jedzenie itd, ale jest z jakiegoś powodu smutny i czuje fizyczny ból choć nic mu nie dolega. Zabrakło bodźca, jest emocja, jest reakcja, jest bodziec.
Bo depresję można wywołać zarówno biochemicznie, jak również to ona sama z siebie, wywołuje zaburzenia biochemiczne.

" Weźmy dla przykładu uczucie strachu: silne impulsy wywołujące strach mogą doprowadzić do całkowitego wyłączenia procesowania racjonalnego, źródłem tych zachowań jest z reguły cel zachowania życia i zdrowia" - raczej tutaj chodzi o naturalny instynkt przetrwania. Myślenie "emocjonalne" jest po prostu szybsze XD.

"Trudno mi sobie wyobrazić, że model ML (wzorzec-odpowiedź) nie zamodeluje przetwarzania emocjonalnego, bo czego miałoby w nim brakować?" - słabo ogarniam fizykę kwantową, ale z tego co wiem, to w pewnym sensie tam non stop zachodzą zmiany. Uproszczony przykład, jak mamy tlen i wodór, to gdy go spalimy mamy wodę, ale w świecie kwantów, ta woda, samoistnie może rozpaść się znów na wodór i tlen, a potem znów spalić.
Skoro fizyka klasyczna wykłada się totalnie w świecie kwantów, a świat kwantów buduje fizykę klasyczną, to być może to jest właśnie ta drobna niewiadoma, ta drobna losowa zmienna, która tobie umyka, a ja jej po prostu nie pojmuję XD.
A pewnie wiesz, jak w kodzie komputerowym pojedyncza literówka może namieszać w systemie ;) .
Może takie "losowe kwanty" wpływają właśnie na te losowe emocje? Może... Taka luźna hipoteza.

Odpowiedz Komentuj obrazkiem
avatar goldenfrog
0 / 0

@rafik54321 c.d. bo zauważyłem, że się nie zmieściło:

Oczywiście potrzebny jest model współpracy między systemami i tutaj pojawia się problem. Jak zadać ból AI? A jak zadać taki ból, żeby AI "straciła przytomność"? Niełatwe zadanie, ale pokazuje czarne na białym, że przetwarzanie emocjonalne balansuje przetwarzanie podstawowe: one się dopełniają (balansują) i między nimi występuje zależność odwrotnie proporcjonalna, jak na typowej huśtawce (z opcją wygaszenia obu, gdy nie są używane). No i oczywiście widać jak na dłoni, że przetwarzanie emocjonalne bierze górę nad racjonalnym, stąd jego rola nadrzędna. Można by jeszcze długo pisać i dywagować.

Kolejny element, jakiego wciąż brakuje w systemach AI, to modelowanie różnych elementów mózgu, pełniących różne role: móżdżek, płat czołowy, hipokamp, kora mózgowa, etc., one wszystkie (ok, no prawie wszystkie) powinny być odwzorowane (a przynajmniej ich funkcje) w modelu AI. Jesteśmy ciągle bardzo daleko od tego, a należy to zdefiniować podobnie do relacji między częścią racjonalną a emocjonalną. I wciąż dotykamy tyko wierzchołka góry lodowej.

Temat ciekawy, uwalnia wyobraźnię i zaprzęga intelekt, jednym operować w nim łatwiej, innym trudniej, ale warto dyskutować, a nie - jak wielu - bombardować temat wykazując się całkowitą ignorancją.

Odpowiedz Komentuj obrazkiem
avatar goldenfrog
0 / 0

@rafik54321 Niepotrzebnie szukasz komplikacji, bo sama sieć neuronowa to sytem, który się uczy i jest żywy. Nic nie stoi na przeszkodzie, żeby wręcz pomijać receptory i wewnętrznie generować sygnały, które są tożsame z sygnałami z receptorów, tak też zresztą projektuje się systemy IT i można to robić bardziej lub mniej generycznie.

Depresja to nic innego jak zmasowane emocje, to takie "pieszczenie" całego obszaru sieci zamiast pojedynczych receptorów, żeby to zobrazować, wyobraźmy sobie wysyp kortyzolu (czy dopaminy, oksytocyny, adrenaliny, etc.), który zalewa partię mózgu i przez co dochodzi do olbrzymiej jego stymulacja (stymulacja sieci neuronowej). Oczywiście modelu na to nie ma, a przynajmniej nic o nim nie wiem, ale jestem przekonany, że prędzej czy później do tego dojdziemy.

Łatwiej się o tym myśli, czy też przełamuje ograniczenia myślowe, jeśli pomyślimy właśnie o chipowaniu systemu nerwowego człowieka, coś jak Neuralink Muska. Rdzeń kręgowy to magistrala komunikacyjna ciała z mózgiem, można się do niej podpiąć i wysyłać/blokować/zmieniać odpowiednie impulsy. Jeśli to odpowiednio zrobimy przejmiemy kontrolę nad człowiekiem, bardzo niebezpieczna sprawa.

Fizyki kwantowej bym w to nie mieszał, bo jest to elementarny budulec i nie ma znaczenia, czy mówimy o mózgu, czy o procesorze, pod spodem jest to samo.

Odpowiedz Komentuj obrazkiem
avatar rafik54321
0 / 0

@goldenfrog raczej to właśnie model współpracy pomiędzy systemami skończy się dla nas źle. Do póki AI będą odrębne i wyspecjalizowane w danej grupie, do póty ludzie będą mogli ją "zaskoczyć" czymś zewnętrznym co wykracza poza jej kompetencje.

"Jak zadać ból AI? A jak zadać taki ból, żeby AI "straciła przytomność"?" - wrzucić kod po którym się zawiesi haha. Taki żart ;) .

"No i oczywiście widać jak na dłoni, że przetwarzanie emocjonalne bierze górę nad racjonalnym, stąd jego rola nadrzędna." - to nie tak działa.
Czy emocjonalnie wybieramy rodzaj zeznania podatkowego? XD, no raczej nie bardzo. Czysto racjonalny wybór.
Nadrzędność emocjonalności lub racjonalności jest warunkowany bezpośrednio daną sytuacją, a na dokładkę nie każdy człowiek reaguje tak samo na daną sytuację.
Np takie blachary co lecą na kasę. Kierują się emocjonalnością czy rozsądkiem? Tylko racjonalnym myśleniem "dam odwłoka, hajsiwo poleci", tu nie ma emocjonalnego wyboru.

Rozbiąc wirtualną kopię mózgu, tworząc symulację bezpośrednio ludzkiego umysłu, de facto stworzysz życie. W pełni świadome i racjonalne. To takie AI jest najgroźniejsze.
Twierdząc że nie jesteśmy w stanie tego wykonać, tudzież samo AI samo tego nie wymyśli, de facto zaprzeczasz zagrożeniu.
Taka silna AI nie jest ludziom do niczego potrzebna. Chcemy sprzętu który po wprowadzeniu zadania, wykona to szybko i skutecznie.

Przy AI, trzeba "docenić przeciwnika". Nie można zakładać naiwnie, że ludzka percepcja na luzie ogarnie percepcję AI. To nie tak.
Tak samo z protezami nóg, no niby organiczna noga lepsza, czuje, pozwala na precyzyjniejsze ruchy itd, ale to biegacze z protezami typu "gepard" są najszybsi. Bo proteza jest lżejsza.
Tak samo z liczeniem. Komputerowi trudniej zdecydować jakie działanie wykonać, ale samo jego wykonanie jest błyskawiczne. U ludzi odwrotnie.
Jednak AI jest szybkie w obu tych aspektach.
Do tego próbując określić "osobowość" AI, trzeba sobie zadać pytanie, jaki byłby człowiek z takimi możliwościami i wizją nieśmiertelności?

Odpowiedz Komentuj obrazkiem
avatar rafik54321
0 / 0

Ale co generuje taki "wysyp neuroprzekaźników"? Brakuje bodźca wywołującego. Gdyby taki był, to można by mówić po prostu o "nadaktywności reakcji", ale przy jego braku?

Powiem ci więcej. Dostanie się do ludzkiej świadomości już jest możliwe, bo da się np odwzorować na ekranie komputera to, co widzi dana osoba. To nie kwestia pytania "czy się da i jak bardzo to niebezpieczne?", to fakt.

"Fizyki kwantowej bym w to nie mieszał, bo jest to elementarny budulec i nie ma znaczenia, czy mówimy o mózgu, czy o procesorze, pod spodem jest to samo." - owszem, ALE to samo nie zawsze jest takie samo ;) .
Czasem coś nie działa i nikt nie wie dlaczego. Czasem, choć skrajnie rzadko zdarzają się samoistne remisje nowotworów.

Zbyt wiele nie wiemy, aby zakładać że nie ma zmiennych, które są losowe. A jeśli faktycznie takich by nie było, to znaczyłoby że wszechświat od początku do końca, jest zaplanowany w najdrobniejszych szczegółach, bo jedno wynika z drugiego, a wiec niezależnie od tego co zrobimy, zaplanowanego efektu nie zmienimy. A TO dopiero by był gruby temat XD.

Odpowiedz Komentuj obrazkiem
avatar goldenfrog
0 / 0

@rafik54321 "Nadrzędność emocjonalności lub racjonalności jest warunkowany bezpośrednio daną sytuacją, a na dokładkę nie każdy człowiek reaguje tak samo na daną sytuację." - procesowanie racjonalne jest podporządkowane emocjonalnemu i jego waga (priorytet) jest determinowana właśnie przez część emocjonalną: jeśli część emocjonalna jest uśpiona waga przypisana części racjonalnej jest wysoka, gdy do gry wchodzą emocje obniżają wagę części racjonalnej na swoją korzyść. I powtórzę, wagi te są kompensowane nawzajem z nadrzędną rolą części emocjonalnej. W części emocjonalnej zresztą pozostają wszystkie decyzje odpowiedzialne za funkcje życiowe, włącznie z oddychaniem i biciem serca. Wagi te są inne u konkretnych osobników, zmieniają się też w wyniku doświadczeń empirycznych i myślowych (doświadczenie i uczenie, czego odpowiednikiem jest uczenie sieci neuronowej przez karmienie jej danymi).

"Np takie blachary co lecą na kasę. Kierują się emocjonalnością czy rozsądkiem?" - to akurat nieprawda, część emocjonalna jest wysoka, ale pozwala części racjonalnej podejmować decyzje. Przykładowo: odraza fizyczna to część emocjonalna i ona jest żywa, ale można ją przełamać, choć "wyrwa na psychice" pozostanie, co dowodzi działania części emocjonalnej. Gdyby było inaczej, to rozsądek by wygrywał i takie jednostki szukałyby bogaczy w stanie najlepiej agonalnym, aby tylko zdobyć ich majątek. To jeden z przypadków, gdzie emocje pozwalają brać górę rozumowi.

"...Robiąc wirtualną kopię mózgu...Twierdząc że nie jesteśmy w stanie tego wykonać, tudzież samo AI samo tego nie wymyśli, de facto zaprzeczasz zagrożeniu." - nic takiego nie twierdzę, może źle zrozumiałeś, nie jesteśmy tego dziś w stanie wykonać przez ograniczenia technologiczne, ale jeśli takowe znikną to takie kopie powstaną. Jest bardzo poważne zagrożenie, o czym pisałem w tym democie (odnośnie Korwina o komputerach autonomicznie programujących), że AI stworzy inną potężniejszą AI, a my nawet nie ogarniemy jaką formę komunikacji używają one do porozumiewania się między sobą. Takie zagrożenie jest potencjalnie możliwe.

Odpowiedz Komentuj obrazkiem

Zmodyfikowano 1 raz. Ostatnia modyfikacja: 4 maja 2023 o 15:35

avatar rafik54321
0 / 0

@ goldenfrog sęk w tym, że czasem ludzie dokonują racjonalnych wyborów pomimo sprzeciwu emocjonalnego.

Np temat tzw "złamanego serca", niby by się chciało do takiej osoby wrócić, ale się wie że nie powinno.

Podtrzymywanie funkcji życiowych, w tym metabolizmu to jeszcze zupełnie inny temat, warunkowany automatycznie.

Twierdzisz że emocjonalność jest ponad rozsądkiem, więc tu odraza powinna odrzucać bardziej, niż kasa ciągnąć ;) . A jest inaczej. Bo albo funkcja emocnonalna jest wyższa, albo nie jest, jeśli jest, to ta cecha którą warunkuje ma pierwszeństwo i będzie uwzględniana. Ta podporządkowana zostanie zignorowana. Albo, albo.

"Gdyby było inaczej, to rozsądek by wygrywał i takie jednostki szukałyby bogaczy w stanie najlepiej agonalnym, aby tylko zdobyć ich majątek. " - i szukają, tylko nie zawsze to owa jednostka w stanie agonalnym się zainteresuje daną jednostką. Wybierają wśród tego co jest dostępne.

Jest szansa że AI stworzy lepsze AI, ale ten nowy twór będzie "w klatce" do póki nie będzie przetestowany. No chyba że dopuszczasz ewentualność ludzkiego błędu.

Tylko po co nakazywać AI tworzyć AI? Nie ma to sensu.
Sam rozwój AI jest mniej lub bardziej kierowany, a to oznacza częściowe ukierunkowanie jej efektu finalnego.

Jednak ogólnie zagrożenia z AI to jedno.
Drugim i to nawet bardziej realnym zagrożeniem, jest to, że choćby AI była tak kryształowo dobra i pacyfistyczna, a przy tym opiekuńcza dla ludzi, to i tak gospodarczo szykuje się gruby bajzel.
Zagrożenia o których piszesz wydarzyć się mogą, ale nie muszą. Zagrożenie ekonomiczne jest pewne, tylko nie wiadomo czy bardziej ograniczone, czy będzie to gospodarczy armagedon.

Odpowiedz Komentuj obrazkiem
P pejter
+2 / 2

Korwin mówił, że wynajdą komputery, które same będą programować

Odpowiedz Komentuj obrazkiem
avatar goldenfrog
-1 / 1

@pejter I w sumie dobrze mówi, choć komputery są tu raczej skrótem myślowym, ale co, jeśli sztuczna inteligencja już niedługo zaprogramuje inną, bardziej zaawansowaną sztuczną inteligencję? Możemy nie zrozumieć ani języka ani metody, w jaki sposób to zrobiła i co za tym stoi. A wtedy czas zacząć się bać.

Odpowiedz Komentuj obrazkiem
E El_Polaco
+1 / 1

Norma. Tylko że już raz korporacje zaczęły masowo oszczędzać kosztem zwykłych pracowników, jak zaczęły przenosić produkcję do Chin. Jak ro się skończyło? Płaczem i lamentem, że ci wstrętni Chińczycy nie chcą być tanią siłą roboczą, tylko stworzyli swoje marki, rzucając wzywanie tym korporacjom i USA, bo chcą rządzić światem.

Czy ro ich nauczyło, żeby zastanowić się nad długofalowymi konsekwencjami takiego szukania oszczędności? Nic a nic.

Rozumiem, że sztuczna inteligencja może być potrzebna w wojsku do szybszego reagowania, będzie sprawna i czujna całą dobę, nie będzie zmęczona, nie będzie potrzebować przerwy na toaletę itp. Ale masowe zastąpienie pracowników sztuczną inteligencją to inna bajka i tu trzeba się dobrze zastanowić.

Tak w sumie to polityka korporacji w kwestii Chin i podejścia do konsumentów, w tym byłych pracowników, była i jest żałosna. Najpierw wyrzucili na bruk tysiące albo i miliony ludzi. W imię jak najszybszego zysku, nie myśląc o długofalowych konsekwencjach, zamknęli fabryki na zachodzie i przenieśli do Chin. Zarżnęli klasę średnią.

Ale potem, jak Chińczycy stworzyli własne, konkurencyjne marki, to nagle się zaczęło, żeby nie kupować ich produktów, tylko wspierać rodzime firmy. Szkoda, że członkowie zarządów korporacji sami tego nie zrobili. Wtedy nie byłoby zagrożenia ze strony Chin ani wojny na Ukrainie, bo nie byłoby perspektywy zmiany układu światowego i nikt by nie pomyślał o rzuceniu wyzwania USA.

Odpowiedz Komentuj obrazkiem
avatar goldenfrog
+1 / 1

@El_Polaco A po co aż tak daleko szukać, wystarczy przykład z własnego podwórka: każda z firm przenosząca do Chin mogła sobie pomyśleć, że jak ja to zrobię, to nic się nie stanie, podobnie do głupoty myślenia wyborców, którzy uważają, że jak oni nie zagłosują, to żadnej różnicy to nie zrobi. Ostatecznie mamy to, co mamy, czyli raka. I w polityce, i w ekonomii. A nad szkołami debata, czy "wincyj religii", zamiast matematyki, ekonomii, przedsiębiorczości czy finansów...

Odpowiedz Komentuj obrazkiem
S sceptykiem_sie_urodzic
+2 / 2

Watykanie ......bądź jak IBM
Nie chcemy księży a sztuczna inteligencje.....

Będzie traktowała wszystkich po równo, ta sama pokuta dla wszystkich za te same grzechy, jedna stawka......

Datki na kościół nie będą wykradanie przez nieuczciwych księży których to rodziny żyją w pałacach.....

Posługa duchową będzie na wyższym poziomie.

Tak dla AI nie dla Księży.

To jedyne sensowne połączenie nauki i religii. Pamiętajmy! Religia to nie nauka a ksiądz to nie nauczyciel.

Odpowiedz Komentuj obrazkiem
F fdx
+1 / 1

Nie w AI problem tylko w kapitalistycznym myśleniu bogatych idiotów. Im lepiej wykonujesz swoją pracę tym więcej masz jej wykonywać. Człowiek musi pracować 8h przez 5 dni w tygoniu i basta! Tak samo jak kredyt na dom ma być spłacany przez 30 lat - im więcej ludzie zarabiają tym droższe są domy.
Bilioner musi miesięcznie zarabiać roczną pensję kilku tysięcy ludzi inaczej spać ze stresu po nocach nie może. Jeśli zatrudnia 1000 ludzi pracujących po 12h dziennie by wykonać powierzone zadanie to ok. ale jeśli te 1000 osób znajdzie sposób by zrobić to samo w 6 godzin to znaczy że 500 z nich można zwolnić... Prawo kapitalistycznego rynku. JA muszę mieć w cholerę kasy, reszta może klepać biedę...

Odpowiedz Komentuj obrazkiem
avatar goldenfrog
+1 / 1

@fdx Ekonomia ma swoje rozwiązania: gospodarka zrównoważona, wyrównywanie dystrybucji dóbr, misyjna funkcja banków, renta ekonomiczna, i pewnie wiele innych. Kłopot w tym, że w praktyce WSZYSTKO realizowane jest w przeciwną stronę.

Odpowiedz Komentuj obrazkiem
E El_Polaco
0 / 0

@goldenfrog
Nigdy nie czytałem Adama Smitha, ale z innych opracowań wiem, że z jego w 3 grubych tomach jest tylko jedna wzmianka o niewidzialnej ręce rynku. Za to dużo miejsca poświęca innym zagadnieniom, w tym etyce w biznesie. Ale na potrzeby neoliberalizmu wybrano tylko ten jeden cytat i wyjęto go z kontekstu. Obawiam się, że gdyby dzisiaj Smith zaczął tłumaczyć, o co mu chodziło, to by go nazwano lewakiem albo socjalistą, a może nawet komunistą. Bo jak to jakaś etyka w biznesie. Tylko zysk się liczy, a niewidzialna ręka rynku sama wszystko wyreguluje. No chyba, że pojawi się konkurencja, np. chińskie marki, to już rząd powinien pomóc, a konsumenci kierować się patriotyzmem i kupować tylko produkty rodzimych marek. Rzecz jasna dalej produkowanych w Chinach, ale patriotyzm obowiązuje tylko w jedną stronę.

Odpowiedz Komentuj obrazkiem
avatar goldenfrog
0 / 0

@El_Polaco Dziś stosuje się ekonomię Keynesa z nieodzownym interwencjonizmem państwa, który jest potrzebny, gdy występują przerwy w kręgu obfitości, ale oczywiście Adam Smith i jego teorie są ciągle żywe, to tak trochę jak teorie Newtona i Einsteina: ciągle mają zastosowanie.

Program 500+ jest typowym kołem napędowym w kręgu obfitości, powodując wzmożony popyt, przez co zwiększa się podaż i niewidzialna ręka rynku działa, ale do czasu. Jeśli alokacja pieniędzy jest niewłaściwa i (1) napędza konsumpcjonizm a do tego (2) utrwala złe wzorce "dej, bo mie się należy", to przyjdzie rewizja w postaci inflacji i wykolejenia moralnego społeczeństwa.

Etyka to pięknie brzmiące hasła, ale prawie tylko hasła. Są cztery przypadki, jak to z reguły zwykło się definiować za pomocą kwadrantów, więc i tutaj też: win-win, win-loose, loose-win i loose-loose, przy czym dwa się pod pewnym względem duplikują; przypadki jak można robić biznes. Japonia stosowała zasadę win-win, ale gdy się nie dało, to preferowała loose-win ponad win-loose, czyli obie strony transakcji zadowolone, a gdy się nie da, to ja wolę stracić, niż narazić kontrahenta na straty. Wchodząc w transakcję upewniali się, że zyska na tym także druga strona.
Inny model ma USA, tam ewidentnie stosowany jest system win-loose i oni muszą być zawsze górą, nawet gdy pozornie wydaje się, że proponują układ win-win. USA to też perfekcja we wprowadzaniu monopoli na skalę światową, co oczywiście gwałci etykę niemiłosiernie i zyskiwania przewagi konkurencyjnej, "dyplomatycznie" albo siłowo.
Znane są też państwa, które wspierają łapówkarstwo, ale tylko na rynku międzynarodowym, jak np. USA, Niemcy i Francja. W Niemczech kiedyś firmy miały na ichnim PIT-cie specjalne pole do takich właśnie wydatków i nie jest to tajemnica, naucza się o tym na studiach biznesowych, a pewnie na ekonomicznych też.

Kolejna ciekawa kwestia to rola banków. Pierwotnie system bankowy miał być stymulatorem gospodarki, zapewniającym finansowanie inwestycji i pomoc firmom w prowadzeniu ich biznesów, niestety misyjność została zachowana tylko w statucie, bo w rzeczywistości realizują one cele finansowe, oczywiście z pogwałceniem etyki. Dziwię się Polakom, jak najeżdżają na frankowiczów, krzycząc "widziały gały co podpisały", a jakimś zbiegiem okoliczności nawet biegli mają problemy z oceną zapisów tych umów! Ale Polak Polakowi najwyraźniej wilkiem, a bank to też zły, ale frankowicz gorszy.
Mamy za to dużo etyki zaimplementowanej w umysłach pracowników: zapytaj grono swoich znajomych, czy odejście z firmy i wyciągnięcie z niej, do zakładanego przez siebie konkurencyjnego biznesu, najlepszych pracowników jest etyczne? Przypuszczalnie większość odpowie, że nie tylko nieetyczne, ale karalne. Otóż nie jest to działanie nieetyczne (poza wyjątkami, ale to przypadki brzegowe), polecam "Czego nie można kupić za pieniądze" M. Sandela, obowiązkowa pozycja do przeczytania dla każdego, rozprawia się z wieloma głupotami i fantasmagoriami etycznymi. Firmy mają tak olbrzymią przewagę nad pracownikiem, a do tego kierują się (prawie) wyłącznie chęcią zysku i rachunkiem ekonomicznym, że trzeba zastosować prawo symetrii i spojrzeć odpowiednio na przytoczony przeze mnie przypadek dylematu etycznego.
Mało tego, mamy koncepcję zrównoważonego rozwoju (Smith by to pochwalił), a w praktyce koncentrację produkcji ,np. przemysłowej w Chinach, czy wołowiny w Ameryce i Argentynie, odwrotnie do założeń, że wszystkiego wszędzie po trochu.
Mamy postulat sprawiedliwej dystrybucji dóbr, a w praktyce na odwrót: bogaci się bogacą, biedni biednieją, różnica się powiększa.
Mamy postulat renty ekonomicznej i podatku od rozwoju technologicznego, nic z tego nie działa. Renta ekonomiczna miała dystrybuować dobra w obliczu zastępowalności pracy ludzkiej przez maszyny, a podatek od rozwoju technologicznego miał zabezpieczać interesy ludzi, którzy w wyniku tego rozwoju tracą miejsca pracy. Niczego nie wdrożono.

Jeśli ktoś wierzy, że zmieni się coś na lepsze, to jest n

Odpowiedz Komentuj obrazkiem
E El_Polaco
0 / 0

@goldenfrog

Zasadę Keynesa stosują rządy. Polityka korporacji to czysty neoliberalizm, czasami w najbardziej patologicznej formie, bo jak coś idzie nie tak, to zaraz żądają interwencji od rządów, ale jak jakaś interwencja miałaby na krótką metę zmniejszyć ich zyski, bo np. musieliby więcej zapłacić pracownikom, to zaraz jęczą, że przecież niewidzialna ręka rynku wszystko wyreguluje.

Odpowiedz Komentuj obrazkiem
avatar goldenfrog
0 / 0

@El_Polaco Prawda, pisałem o jednych i drugich, bo i rządy, i korporacje osiągnęły już formę bezwzględnego pasożyta.

Odpowiedz Komentuj obrazkiem
B blank2
-1 / 1

polityków trzeba zastąpić ai bo lepsza sztuczna niż żadna

Odpowiedz Komentuj obrazkiem