Demotywatory.pl

Pokaż panel
Szukaj
+
302 308
-

Komentarze ⬇⬇


Komentarze


Dodaj nowy komentarz Zamknij Dodaj obrazek
avatar JohnLilly
+1 / 11

Ja się domyślam czego ludzie się domyślają widząc tego demota, ale sprawa nie jest prosta. Z tego co wyczytałem to AI typowała kobiety, oraz osoby o innym kolorze skóry niż biały, jako złodziei, ale robiła to błędnie. Tak więc nie ma co się spuszczać, że czarni to złodzieje i nawet AI to wie, a sprawę należy wyjaśnić, bo wielu ludzi miało problemy przez to, że ich jakiś głupi algorytm wytypował jako złodziei.

Odpowiedz Komentuj obrazkiem

Zmodyfikowano 1 raz. Ostatnia modyfikacja: 23 grudnia 2023 o 21:35

avatar OP2000
+6 / 12

@JohnLilly AI dostało statystyki kradzieży a potem wypluwa kto może ukraść...
Co może pójść nie tak!

Odpowiedz Komentuj obrazkiem
K kamil1024
+5 / 5

@JohnLilly Jedynym błędem to jest oskarżanie ludzi o kradzież na podstawie AI! Narzędzie nie jest winne, winny jest kretyn, który wymyślił takie jego zastosowanie i faktycznie oskarżał ludzi na tej podstawie.

Odpowiedz Komentuj obrazkiem

Zmodyfikowano 1 raz. Ostatnia modyfikacja: 26 grudnia 2023 o 19:24

U UFO_ludek
0 / 8

@OP2000 Nie statystyki tylko ograniczone dane wrzucone przez człowieka. W drogerii 90% klientów to kobiety. a tylko 10% to mężczyźni. Dziennie kradziona jest jedna rzecz. I teraz dowolnie można manipulowac statystykami. Ukradł mężczyzna-statysdtyki mówią, ze 10% kradnie. Ukradła kobieta - większość złodzei to kobiety, bo jest ich więcej w sklepie. Zależy, ktore dane wrzucisz do AI.

Odpowiedz Komentuj obrazkiem
avatar OP2000
-1 / 3

@UFO_ludek Zabawne, gdy AI typuje jako tych złych kobiety i czarnych, to jesteś pierwszy by na to narzekać, że dane nie pełne, że kłamstwa!
Ale jak mówią, że każdy facet to gwałciciel, to pierwszy by pochwalić.

Odpowiedz Komentuj obrazkiem
L Livanir
0 / 2

@OP2000 A z ciekawości- masz jakieś jego komentarze na potwierdzenie, czy działasz na jak AI: jakiś użytkownik demotywatorów coś napisał i teraz uważasz że każdy użytkownik tak myśli?

Odpowiedz Komentuj obrazkiem
I igloo_72
+1 / 3

ciekawostka dropsa

Odpowiedz Komentuj obrazkiem
H hermeusz
+1 / 9

Źle wyuczone AI może zatrzymywać wszystkich mężczyzn jako przestępców, bo statystyczny przestępca to mężczyzna

AI samo z siebie nie potrafi wyizolować cech znaczących od nieznaczących, to jest rola człowieka by przygotować dobry zestaw do nauki AI do konkretnego celu
(general AI (czyli takie prawdziwie inteligentne) nie istnieje)

Odpowiedz Komentuj obrazkiem

Zmodyfikowano 2 razy. Ostatnia modyfikacja: 23 grudnia 2023 o 15:14

D Desertnadeser
+1 / 1

@hermeusz W pewnym sensie to prawda ale czy zaburzając proporcje danych do uczenia, narzucamy narrację ukierunkowaną na wynik przez nas oczekiwany?

Odpowiedz Komentuj obrazkiem
M mieteknapletek
0 / 0

@Desertnadeser
rzecz w tym ze to jest czesto poruszany problem odnosnie roznych ai

Odpowiedz Komentuj obrazkiem
H hermeusz
0 / 0

@Desertnadeser przez rodzaj danych możesz nauczyć AI ignorować nieistotne korelacje. W tym przypadku rasa jest nieistotna, złodziej może być biały i tak samo chcemy go wyłapać. Istotny może tu być np ruch gałek ocznych, nerwowość, specyficzny ruch ciała

Odpowiedz Komentuj obrazkiem
D Desertnadeser
0 / 0

@hermeusz Oczywiście. Chodzi mi o sytuację, kiedy wyrugujemy kolor skóry z danych do uczenia a wynik będzie wskazywał, że 80% ludzi z podejrzanym zachowaniem to np. osoby czarnoskóre. Miało być obiektywnie, wyszło obiektywnie ale niezgodnie z promowaną narracją/tezą autora badania.

Odpowiedz Komentuj obrazkiem
H hermeusz
0 / 0

@Desertnadeser ale taki system nie ma zbierać danych statystycznych tylko szukać złodzieja. Nie obchodzi nas rozkład rasy czy płci w DOBRZE wyłapanych złodziejach.

Ten rozkłąd ras będzie też się szalenie różnił w zalezności od miejsca gdzie program jest użyty bo ilość czarnych jest różna (w samych stanach jest rozstrzał od 0.5% do 44% (Montana vs Washington)

To samo z płcią, 90% więżniów to mężczyźni,wyobraż sobie użycie źle wytrenowanego AI w procesie sądowym kobiety

Odpowiedz Komentuj obrazkiem
L Laufer
0 / 8

Stereotypy. U AI tworzą się tak samo jak u ludzi. Nierozróżnianie korelacji od związku przyczynowo-skutkowego.

Odpowiedz Komentuj obrazkiem
M Mateuszek_K
+8 / 12

Na początku, ponad 20 lat temu, był taki przykład
AI miało przeglądać zdjęcia i wskazywać ten na których są czołgi.
Na testowych robiło to prawie ze stu procentową skutecznością a na prawdziwych kompletna losować

Analiza wykazała że zdjęcia na których ją uczono, na których było widać czołgi, były robione w ładny słoneczny dzień więc AI wskazywała zdjęcia na których jest ładny słoneczny dzień

Tu pewnie cos podobnego

Odpowiedz Komentuj obrazkiem
avatar Wolfi1485
+1 / 3

Dobrze, że AI nie wskazywała potencjalnych zamachowców i zboczeńców, bo dopiero by się bóle doopska zaczęły :->

Odpowiedz Komentuj obrazkiem
R rademenes_82
0 / 0

Tylko patrzeć, jak oskarżą AI o rasizm ;D

Odpowiedz Komentuj obrazkiem
P Pug_79
+2 / 2

AI to ładna nazwa dla algorytmu heurystycznego bazującego wyłącznie na statystyce. Nadawanie temu algorytmowi cech ludzkich i oczekiwanie czegoś w rodzaju świadomości to przedawkowanie filmów SF. Jeżeli w próbce danych na której budowane były wagi na poszczególnych neuronach było dużo osób ciemnoskórych lub kobiet, to sieć naturalnie będzie wskazywała obiekty podobne.

Odpowiedz Komentuj obrazkiem