Demotywatory.pl

Pokaż panel
Szukaj

Komentarze ⬇⬇


Komentarze


Dodaj nowy komentarz Zamknij Dodaj obrazek
C coldfish
+15 / 15

z tego wniosek że taka z niej inteligencja jak z koziej dupy trąba :)

Odpowiedz Komentuj obrazkiem
J konto usunięte
+8 / 8

@coldfish Sztuczna inteligencja do dzisiaj to tylko rozbuchana nazwa na matematyczne automaty bezmyślnie przetwarzające dane wedle predefiniowanych reguł.
Tu akurat problemem jest inteligencja autorów tego automatu, nie wzięli pod uwagę kontekstów wypowiedzi, gdzie słowa mogące świadczyć o sianiu nienawiści na tle rasowym, będą padać bez żadnej złej woli i wymagają człowieka do oceny zawartości.

Odpowiedz Komentuj obrazkiem
avatar Bimbol
+2 / 6

@coldfish
Wręcz przeciwnie. Doskonale odnalazła się w dzisiejszych popieprzonych czasach poprawności politycznej

Odpowiedz Komentuj obrazkiem

Zmodyfikowano 1 raz. Ostatnia modyfikacja: 24 lutego 2021 o 12:45

avatar ZONTAR
+1 / 1

@J_R Polemizowałbym. Sztuczna inteligencja z zasady jest wyrywkiem inteligencji zazwyczaj wyuczonym zachowań na podstawie naszych działań. Od dawna jest to główna metoda uczenia sztucznej inteligencji - daj jej pulę danych wejściowych i werdyktów, a ona zaczyna się uczyć powielać to zachowanie. To my przekazujemy jej dane i od nas zależy z czego wyciąga wnioski. Najwyraźniej daliśmy jej takie dane, że uznała jakąkolwiek rozmowę o kolorach za rasistowską. Pretensje należy mieć do tych, którzy sporządzali dane.

Co było z Amazonem? Algorytm znał CV wielu ludzi i znał werdykt podczas rekrutacji czy ich ocenę pracowniczą. Wyprowadził prosty wniosek, osoby podkreślające w CV przynaleźność do szkół, grup czy klubów tylko dla kobiet miały dużo gorsze wyniki i tak też decydował. To zostało oczywiście nazwane dyskryminacją. Można teraz dyskutować o tym, dlaczego akurat takie osoby miały na tyle odstające wyniki, że algorytm wziął to pod uwagę, ale jednak to jest faktem. Algorytm jedynie ekstrapolował decyzje ludzi.

A jak wyglądała sprawa z rozpoznawaniem ludzi i zwierząt? Dokładnie tak samo, w Azji uczyli algorytm rozpoznawania twarzy i jednocześnie uczyli go rozpoznawania zwierząt. Później się okazało, że Obamę sklasyfikował jako małpę. Prosty błąd w uczeniu, jako pula ludzi służyli głównie azjaci. Jaką decyzję podjąłby człowiek, który przez całe życie widział czarne małpy i białych ludzi? Czy widząc czarnego człowieka jego pierwszą myślą by był człowiek, czy małpa? I dokładnie tak samo jest we wszystkich przypadkach uczenia. Jeśli materiały służące do uczenia algorytmu jasno wskazywały, że dyskusje o kolorach są rasistowskie, to algorytm tak będzie uważał. Został skrzywiony przez tych, którzy go uczyli. Najwyraźniej komuś bardziej zależało na nauczeniu go rasizmu, niż na nauczeniu go odróżniania zachowań szkodliwych od nieszkodliwych.

Dodałbym, że taki poziom inteligencji i tak już dorównuje inteligencji wielu ludzi, dla których rasizmem jest już samo bycie białym, a mężczyzna jest z góry seksistą.

Odpowiedz Komentuj obrazkiem
J konto usunięte
+1 / 1

@ZONTAR Zajmuję się trochę SI, może nie na froncie, ale jednak. Te co znam, a znam te z zakresu sieci neuronowych to są tępe automaty, które dają wyniki na podstawie danych wejściowych i trenowania.

Niczym więcej nie są. Nie znam spraw, które wymieniasz, więc nie odniosę się, poza jednym, nie da się pomylić człowieka z małpą, nawet w nietypowym kolorze. Można mieć wątpliwości, ale nie da się pomylić, inna postawa, inna twarz, no i przede wszystkim małpy mają futro. Ale żaden automat do detekcji twarzy lub obiektów nie rozumie tego, on jedynie potrafi przeliczyć wagi na wejściu, przeliczyć wagi po środku i przeliczyć wagi na wyjściu, a na końcu wypluć jakiś wynik. Nie rozumie co to futro, nawet jak nauczysz go wykrywać futro. Nie rozumie co to twarz, nawet jak umie wykrywać, nie rozumie nawet, że patrzy na coś, bo tak naprawdę dostaje on macierz o jakimś tam standaryzowanym wymiarze i przelicza wartości wedle klasyfikacji i dostosowuje wagi tak długo, aż dostaje pożądany wynik i potem na zasadzie podobieństwa wydaje osąd, czy dostał gdzieś dane, które ma wykryć.

Sztuczne sieci neuronowe są raptem generalizatorem wiedzy, które można nawet zmusić do tego, by same tę wiedzę zdobywały, ale inteligencji w tym nie ma za grosz.

Odpowiedz Komentuj obrazkiem
avatar ZONTAR
0 / 0

@J_R To był system rozpoznawania twarzy i kolor jest jedną z pierwszych cech na które zwrócisz uwagę. Jeśli system był od początku uczony na azjatach i ciemnych małpach, to może wysunąć taki wniosek i nadać dosyć wysoką wagę kolorowi skóry. Ludzie też mają włosy i zarost, więc siłą rzeczy istnienie włosów nie jest decydującym warunkiem przy analizie twarzy.
Chyba największą różnicą między ludzką inteligencją i sztuczną inteligencją jest zdolność do upraszczania. Człowiek potrafi wykonywać bardzo skomplikowane analizy bardzo szybko tylko przez to, że stosujemy ogrom uproszczeń i bardzo często się mylimy. Maszyny są projektowane tak, aby były powtarzalne i możliwie nieomylne, więc automatycznie wymagają dużo większej mocy od ludzkiego mózgu.

Człowiek robi dokładnie te same błędy. Ilu ludzi skraca tok myślenia i z góry zakłada, że kobieta nie nadaje się na kierownika, bo nie ma jaj? Fakt, statystycznie kierownictwo wymaga cech bardziej męskich i statystycznie mężczyźni mają więcej cech męskich od kobiet. To jest statystyka i my często upraszczamy to sobie na podstawie naszych obserwacji. Chcemy stworzyć sztuczną inteligencję, ale faktycznie zależy nam na stworzeniu czegoś wyższego od naszej inteligencji. Czegoś, co nie będzie się mylić, nie będzie popełniać tych samych błędów. Stworzenie uniwersalnej SI jest niesamowicie trudne, ale stworzenie takiej dedykowanej do pewnych zadań jest jak najbardziej możliwe. Dlaczego ReCaptcha już nie pyta nas o przepisanie literek z jakichś obrazków? Bo SI nauczyła się czytać takie teksty lepiej od człowieka. Przez ileś lat uczyliśmy SI czytania głównie w celu digitalizacji różnych archiwów i do pewnego momentu człowiek robił to dużo lepiej od SI. W pewnym momencie jednak SI stała się w tym lepsza od przeciętnego człowieka i wykorzystanie tego do weryfikacji człowiek-robot przestało mieć sens. Teraz dla odmiany mamy obiekty - zaznacz wszystkie samochody, autobusy, łodzie. Idziemy w tym samym kierunku, póki co robimy to jeszcze lepiej od SI, ale to kwestia czasu.

Odpowiedz Komentuj obrazkiem
J konto usunięte
0 / 0

@ZONTAR Nikt, podkreślam nikt, nie potrafi określić, na co zwraca uwagę uczony system neuronowy o jakimkolwiek sensownym rozmiarze. Jest zwyczajnie zbyt wielki. A małe systemy na odmianę uczą się takich cech, które dla człowieka nie mają sensu i nie ma powodu, by założyć, że większe robią to inaczej.

Sieci neuronowe właśnie upraszczają wiedzę, czyli generalizują ją. Ale nie ma za nimi żadnej inteligencji jak już pisałem. Po prostu żmudny proces wymnażania macierzy, sprawdzania odchyłki, wprowadzania korekty, albo aż zostanie to zrobione wymaganą ilość razy, albo aż odchylenie o zadanej wartości zostanie osiągnięte. Nic więcej. Matematyczny automat. Zero rozumowania, zero myślenia, zero rozważań.

Użycie polega na wprowadzeniu macierzy wejściowej, wykonaniu operacji matematycznych na każdej warstwie i na koniec wyplucie wyniku w postaci wyliczenia odpowiednio wysokiego poziomu pewności na poszczególnych neuronach odpowiadających za poszczególne wykrywane obiekty. Znowu, zero inteligencji, nic, prócz przemnożenia macierzy.

Poczytaj sobie o stereotypach, jest to inny mechanizm niż statystyka, człowiek z natury nie potrafi się posługiwać statystyką, jest to ciekawy i działający mechanizm, ale natura wyposażyła nas w stereotypowanie.

Na tę chwilę to ludzie próbują stworzyć coś, co by odpowiadało choćby kurze czy psu, bo żaden system SI nie ma rozumu, potrafi przetwarzać, potrafi wnioskować, ale wszystko odbywa się w ściśle kontrolowanych warunkach i wedle ścisłych reguł. Przynajmniej ja nie znam żadnego systemu SI, który by potrafił rozumować. Nawet ten wynalazek od Google, co pobił mistrza Go, wystarczy zmieniać rozmiar planszy i się wycedzi na starcie. Człowiek? Trochę się po wnerwia, ale jakoś sobie poradzi w krótkim czasie.

Odpowiedz Komentuj obrazkiem
avatar ZONTAR
0 / 0

@J_R Nikt tu nic nigdzie nie pisał o rozumieniu. Opieranie się o modele matematyczne (nawet te sztucznie stworzone na podstawie uczenia) ma to do siebie, że jest konsekwentne. Taki system znając poprawne odpowiedzi nigdy ich nie zakwestionuje, a swoje odpowiedzi zawsze poda tak samo (o ile nie wprowadzisz mu więcej danych, które zmienią algorytm). Człowiek nie jest powtarzalny, często wyciąga nielogiczne wnioski lub błednie nadaje wagi różnym cechom. Człowiek też często zapomina lub się myli.
Zobacz sobie na algorytmy symulujące przepływy wody. Nauczono SI przewidywania zachowania różnych substancji i ich interakcji. Ot, generowali modele na podstawie zaawansowanych modeli matematycznych, wprowadzali wyniki do SI i nagle się okazało, że SI jest w stanie bardzo dobrze odzworować i przewidywać zachowania różnych cieczy w sytuacjach, których nigdy nie doświadczyła. Robi to przy dużo mniejszej złożoności obliczeniowej w stosunku do pełnej symulacji fizycznej. Dzięki temu można przeprowadzić dużo więcej przybliżonych symulacji na tym samym sprzęcie. Ot, zdolność uczenia się zjawisk, wyciągania z tego wniosków i aplikowania ich do zbliżonych sytuacji. Jeśli to nie jest formą inteligencji, to czym? Człowiek działa dokładnie tak samo, po prostu jest w stanie analizować więcej bodźców. No z tą różnicą, że często się myli i dopuszcza kadrynalnych błędów, a jak czegoś nie potrafi, to wymyśli sobie siły nieczyste i jest zadowolony.

Odpowiedz Komentuj obrazkiem
J konto usunięte
0 / 0

@ZONTAR Inteligencja polega na rozumowaniu na podstawie odbieranych bodźców i dostosowywaniu swoich odpowiedzi na te bodźce. Nawet kura potrafi rozumować o swoim otoczeniu. Wiem, że to może i zabrzmi dziwnie, ale tak.
Człowiek potrafi używać techniki sztucznej inteligencji by automatyzować procesy, ale cała inteligencja w tych procesach jest ludzka. Maszyna nie wychodzi poza narzucone ramy działania.

Odpowiedz Komentuj obrazkiem
avatar ZONTAR
0 / 0

@J_R Człowiek też nie wychodzi poza te ramy. Masz zestaw zmysłów i bodźców, które odbierasz, tylko na nich się możesz opierać. Cała reszta pojmowania świata to jakiś nasz model, który tworzymy sobie w głowie. Tak samo wszelkie urządzenia oparte na SI mają zestaw bodźców i w podobny sposób uczą się różnych schematów aby stosować je później w nieznanych sytuacjach. Jedyna różnica polega na stopniu złożoności. Gdyby SI dostała tyle samo możliwości co człowiek, to złożoność wszelkich obliczeń i działań byłaby ogromna. No i przede wszystkim inteligencja zawsze musi mieć jakiś cel. Człowiek ma swoje wbudowane cele, które odbiera jako szczęście. Aby taka SI mogła funkcjonować samodzielnie, trzeba jej nadać jakieś potrzeby czy cele. Zwykle są bardzo prosto określone, zminimalizuj czas wykonywania operacji, znajdź najniższy wynik itp. To wszystko to tylko kwestia złożoności.

Odpowiedz Komentuj obrazkiem
J konto usunięte
0 / 0

@ZONTAR Jak masz ochotę, to napisz parę sieci neuronowych, powinieneś zrozumieć wtedy, co mam na myśli. Jest cała masa tutoriali w pythonie, bardzo fajny i łatwy język. Przykładowo, po angielsku:

https://towardsdatascience.com/how-to-build-your-own-neural-network-from-scratch-in-python-68998a08e4f6?gi=13fc666750da
https://www.python-course.eu/neural_network_mnist.php

Jak nie masz ochoty, albo czasu, to trudno, ja już więcej nie dam rady w tym temacie się produkować.

Odpowiedz Komentuj obrazkiem
avatar ZONTAR
0 / 0

@J_R To ja polecam zapoznanie się z pojęciami deep learningu, machine learningu i szeroko pojętego AI. To tak, jakbym ja gadał tu o inteligencji i rozumowaniu człowieka, a Ty o synapsach i tym, że człowiek to tylko sieć sygnałów elektrycznych, które nie potrafią myśleć i wykonują proste funkcje. Poświęć najwięcej uwagi na odróżnienie machine learningu opartego o nieskategoryzowane dane w stosunku do skategoryzowanych danych. Tym się głównie różni słabe AI od silnego AI. Taka Siri, chat boty i większość wykorzystywanych przez nas algorytmów to słabe AI - dostaje zestaw zadań do wykonania i ma się tylko nauczyć jak je wykonywać. Silne AI nie dostaje określonych danych, zamiast tego samo analizuje wszystkie dane wejściowe i samo szuka schematów próbując zrozumieć zależności. Tak chociażby prostszych implementacji silnego AI używa się do wyszukiwania schematów tam, gdzie nie potrafimy ich znaleźć. Kiedyś używałem czegoś takiego do wymiarowania sieci HSDPA, z ogromu danych wejściowych próbowaliśmy nauczyć system ogarniania gdzie należy stosować jakie konfiguracje. Taki system potrafił wyłapać zaleźności, których my nawet nie byliśmy świadomi. Na przykład system rozpoznał, że inaczej wygląda ruch sieciowy w wybranych obszarach geograficznych i skorelował to z obecnością dróg szybkiego ruchu. Co najlepsze, nie miał mapy dróg szybkiego ruchu, stworzył ją na podstawie danych z sieci komórkowej. Gdybyśmy dali mu też dane chociażby z map google, to pewnie by skorelował te skupiska innych form danych z obecnością dróg i był w stanie na podstawie mapy przewidzieć miejsca, w których wystąpią podobne anomalie. Na tym to właśnie polega, dając systemowi wystarczająco danych będzie w stanie odnaleźć korelacje tak, jak robi to człowiek. Nie musisz mu podpowiadać na co ma patrzeć, sam się nauczy.

Odpowiedz Komentuj obrazkiem
J konto usunięte
0 / 0

@ZONTAR No to się zainteresuję bardziej deeplearningiem, ale wątpię, by przejawiał prawdziwą inteligencję.

Odpowiedz Komentuj obrazkiem
P paul123
-4 / 24

a za pedały w rowerze na kanale dla rowerzystów też będzie blokować?

Odpowiedz Komentuj obrazkiem
J konto usunięte
+6 / 6

@paul123 Na Facebooku już blokowali za artykuły o doborze pedałów do roweru.

Odpowiedz Komentuj obrazkiem
J konto usunięte
+1 / 1

@mooz Znałem to drugie znacznie faggot. Teraz okazuje się, że można o tego używać w kuchni... Fascynujące.

Odpowiedz Komentuj obrazkiem
avatar ZONTAR
+1 / 1

@J_R Ostatnio było głośno o cyckach murzynki. Takie ciasto jakby ktoś nie wiedział.

Odpowiedz Komentuj obrazkiem
K KwZ
0 / 0

Nie za rasizm, tylko za wspomnienie o koronawirusie na kanale do tego nieprzeznaczonym - a tak naprawdę nie wiadomo, bo YouTube nie podaje powodu poza "naruszeniem standardu".

Zdjęcie kanału Agadmatora jest stare, teraz dostał już 9000 $ :)

Odpowiedz Komentuj obrazkiem
W konto usunięte
0 / 0

Przecież każdy wie, że to afroamerykańskie pionki I bialasy

Odpowiedz Komentuj obrazkiem

Zmodyfikowano 1 raz. Ostatnia modyfikacja: 24 lutego 2021 o 21:51