Demotywatory.pl

Pokaż panel
Szukaj

Komentarze ⬇⬇


Komentarze


Dodaj nowy komentarz Zamknij Dodaj obrazek
E elefun
+10 / 10

Zbliżamy się do pierwszej części Terminatora.
Jeśli wojsko przyznaje się do takich testów, to są kila kroków dalej. Zapewne autonomiczne drony i cyborgi są już normą w ich laboratoriach.

Odpowiedz Komentuj obrazkiem
R rademenes_82
0 / 0

@elefun Cyborgi to chyba jeszcze długo będzie fikcja, prędzej jakieś bojowe roboty. Ale autonomiczne drony to z pewnością najbliższa przyszłość.

Odpowiedz Komentuj obrazkiem
K kozaalfa1
0 / 2

podstawowe pytanie brzmi - skąd dron wiedział, że miejsce które nim steruje jest w wieży ?

Odpowiedz Komentuj obrazkiem
J Jacek83218
+2 / 2

@kozaalfa1 Może jedną z wytycznych była obrona wieży sterującej, ale program miał inny "pomysł".

Odpowiedz Komentuj obrazkiem
K kozaalfa1
+3 / 3

@Jacek83218 jeśli miał jej bronić to by zostały odjęte punkty za utracenie wieży. Podczas testów, inżynierowie badają skutki swoich programów. To nie jest takie proste przekazać maszynie swojej wiedzy. Możecie się zdziwić ile poprawek to głupiej strony się robi podczas pisania kodu. Głupia literówka może zatrzymać działanie całego projektu. Dasz przecinek zamiast średnika i nic nie zadziała. Wracając do tematu testów - po to się je robi żeby wiedzieć jak zadziałają. Skoro w testach maszyna postanowiła zajumać operatora to należy to uwzględnić w dalszych procedurach a nie biadolić że maszyna zajumała operatora.

Odpowiedz Komentuj obrazkiem
R rademenes_82
+1 / 1

@kozaalfa1 Do wykrycia sygnału biegnącego do urządzenia nie potrzeba sztucznej inteligencji. Takie zdolności posiada każde urządzenie elektroniczne sterowane zdalnie.

Odpowiedz Komentuj obrazkiem
K kozaalfa1
0 / 0

@rademenes_82 rozumiem - dziekuje za wyjasnienie.

Odpowiedz Komentuj obrazkiem
avatar Xar
+3 / 5

Akcja byla wirtualna. Mialo to dzialac tak,ze za realizacje zadan dostaje punkty. Gdy zadanie zostalo anulowane, dron stwierdzil,ze zagrozeniem dla zdobywania punktow jest operator, wiec go usmiercil. W innym podejsciu dron zagluszyl komunikacje z analogiczengo powodu. Dron to maszyna, AI tez - szuka najefektywniejszej metody wykonania celu, bez oceny moralnej czy przyjmowania za pewnik ludzkiej logiki lub elementarnych zakazow, bo ich po prostu nie zna

Odpowiedz Komentuj obrazkiem
K Kluczyk93
-1 / 1

A jakieś źródło do oryginału?

Odpowiedz Komentuj obrazkiem
K Kluczyk93
0 / 2

Czy OP może podać jakieś źródło?

Odpowiedz Komentuj obrazkiem
B Bushi123
-1 / 1

Tia... to człowiek programuje i wytycza ramy AI. wnioski? - po co... Patrząc na głupotę związaną z zupełnym brakiem kontroli nad pracami nad AI - widzę ciemność. Witamy w piekle, jakie sobie sami tworzymy.

Odpowiedz Komentuj obrazkiem
avatar Xar
0 / 0

@Bushi123 slyszales o czyms takim jak PFMEA?
Pospolitą pomyłką, jaką popełniają ludzie pragnący stworzyć urządzenie, którego mógłby używać nawet kompletny głupiec, jest niedocenienie geniuszu tychże kompletnych głupców.
— Douglas Adams

Odpowiedz Komentuj obrazkiem
P Pug_79
0 / 0

Taki news do robienia ludziom wody z mózgu. Sieci neuronowe i algorytmy ewolucyjne są bardzo proste w swoich podstawowych założeniach ale funkcja celu i proces uczenia mogą czasem dać trudne do przewidzenia efekty. Jednak robienie z tego scenariusza do Terminatora przypomina hakowanie w serialach Polsatu ...

Odpowiedz Komentuj obrazkiem
C camper52
0 / 0

Heh. W zasadzie z informatycznego punktu widzenia wszystko było ok. Pewnie operator nie został oznaczony odpowiednio, ktoś nie dopatrzył że jest widoczny dla sensorów i ai musiało to jakoś zinterpretować. W tym przypadku jako dodatkowy cel, bo przecież jest od likwidacji celów

Odpowiedz Komentuj obrazkiem