Demotywatory.pl

Menu Szukaj
+
191 209
-

Zobacz także:


E elefun
+10 / 10

Zbliżamy się do pierwszej części Terminatora.
Jeśli wojsko przyznaje się do takich testów, to są kila kroków dalej. Zapewne autonomiczne drony i cyborgi są już normą w ich laboratoriach.

Odpowiedz
R rademenes_82
0 / 0

@elefun Cyborgi to chyba jeszcze długo będzie fikcja, prędzej jakieś bojowe roboty. Ale autonomiczne drony to z pewnością najbliższa przyszłość.

K kozaalfa1
0 / 2

podstawowe pytanie brzmi - skąd dron wiedział, że miejsce które nim steruje jest w wieży ?

Odpowiedz
J Jacek83218
+2 / 2

@kozaalfa1 Może jedną z wytycznych była obrona wieży sterującej, ale program miał inny "pomysł".

K kozaalfa1
+3 / 3

@Jacek83218 jeśli miał jej bronić to by zostały odjęte punkty za utracenie wieży. Podczas testów, inżynierowie badają skutki swoich programów. To nie jest takie proste przekazać maszynie swojej wiedzy. Możecie się zdziwić ile poprawek to głupiej strony się robi podczas pisania kodu. Głupia literówka może zatrzymać działanie całego projektu. Dasz przecinek zamiast średnika i nic nie zadziała. Wracając do tematu testów - po to się je robi żeby wiedzieć jak zadziałają. Skoro w testach maszyna postanowiła zajumać operatora to należy to uwzględnić w dalszych procedurach a nie biadolić że maszyna zajumała operatora.

R rademenes_82
+1 / 1

@kozaalfa1 Do wykrycia sygnału biegnącego do urządzenia nie potrzeba sztucznej inteligencji. Takie zdolności posiada każde urządzenie elektroniczne sterowane zdalnie.

K kozaalfa1
0 / 0

@rademenes_82 rozumiem - dziekuje za wyjasnienie.

Xar
+3 / 5

Akcja byla wirtualna. Mialo to dzialac tak,ze za realizacje zadan dostaje punkty. Gdy zadanie zostalo anulowane, dron stwierdzil,ze zagrozeniem dla zdobywania punktow jest operator, wiec go usmiercil. W innym podejsciu dron zagluszyl komunikacje z analogiczengo powodu. Dron to maszyna, AI tez - szuka najefektywniejszej metody wykonania celu, bez oceny moralnej czy przyjmowania za pewnik ludzkiej logiki lub elementarnych zakazow, bo ich po prostu nie zna

Odpowiedz
B Bushi123
-1 / 1

Tia... to człowiek programuje i wytycza ramy AI. wnioski? - po co... Patrząc na głupotę związaną z zupełnym brakiem kontroli nad pracami nad AI - widzę ciemność. Witamy w piekle, jakie sobie sami tworzymy.

Odpowiedz
Xar
0 / 0

@Bushi123 slyszales o czyms takim jak PFMEA?
Pospolitą pomyłką, jaką popełniają ludzie pragnący stworzyć urządzenie, którego mógłby używać nawet kompletny głupiec, jest niedocenienie geniuszu tychże kompletnych głupców.
— Douglas Adams

P Pug_79
0 / 0

Taki news do robienia ludziom wody z mózgu. Sieci neuronowe i algorytmy ewolucyjne są bardzo proste w swoich podstawowych założeniach ale funkcja celu i proces uczenia mogą czasem dać trudne do przewidzenia efekty. Jednak robienie z tego scenariusza do Terminatora przypomina hakowanie w serialach Polsatu ...

Odpowiedz
C camper52
0 / 0

Heh. W zasadzie z informatycznego punktu widzenia wszystko było ok. Pewnie operator nie został oznaczony odpowiednio, ktoś nie dopatrzył że jest widoczny dla sensorów i ai musiało to jakoś zinterpretować. W tym przypadku jako dodatkowy cel, bo przecież jest od likwidacji celów

Odpowiedz