Létrehozása gyilkos robotok - nagyon-nagyon rossz ötlet - Filmek, műsorok - News

ClearPath Robotics cég alakult hat évvel ezelőtt három barát a főiskolán, akik egyesültek szenvedéllyel csinálni mindenféle dolgokat. 80 szakosodott cégek robotok vezetéshez nehéz terepen, mint a Husky-k, négykerekű robot által használt az USA Védelmi Minisztériumának.

Létrehozása gyilkos robotok - nagyon-nagyon rossz ötlet - Filmek, műsorok - News

azt is, hogy a herék, sőt épített robot hajó Kingfisher. Azonban az egyik, csak soha nem készítettünk: a robot, amely képes megölni.

ClearPath az első és eddig az egyetlen vállalat gyártása robotok, amely megígérte, hogy nem hoz létre gyilkos robotokat. A döntés született az elmúlt évben, társalapítója és műszaki igazgatója Ryan Garipaem és valójában még fogott a cég szakértői, akiknek tetszett az egyedi etikai álláspontot ClearPath.

Az etika a cégek, hogy robotok közül az első helyzete az elmúlt években. Látod, van egy lábbal a jövőben, ahol nem lesz gyilkos robotokat. És mi egyáltalán nem áll készen a számukra.

Persze, még mindig hosszú út áll előttünk. Koreai Dodam rendszerek, például konstrukciók autonóm robot torony nevezett Super AEGIS II. Ez használ egy hőkamera és lézeres távolságmérő azonosítani és a támadás célokat a parttól 3 km-re. Az Egyesült Államok, a jelentések szerint, az is kísérletezik autonóm rakéta rendszereket.

Egy kőhajításnyira a „Terminator”

Létrehozása gyilkos robotok - nagyon-nagyon rossz ötlet - Filmek, műsorok - News

Katonai herék, mint a Predator jelenleg irányítja az embereket, de azt mondja, hogy Garipay nagyon hamar teljesen automatikus és autonóm. És ez zavarja őt. Nagyon. „Halálos autonóm fegyverrendszerek mehet le a futószalagról most. De halálos fegyver rendszerek, amelyek kerül sor összhangban az etikai normák - még csak nem is a terveket. "

Mert Garip probléma a nemzetközi joggal. A háború mindig vannak helyzetek, amikor az erő alkalmazása szükségesnek tűnik, de ez is veszélyeztetheti ártatlan járókelők. Hogyan hozzunk létre gyilkos robotok, amely biztosítja, hogy a megfelelő döntéseket minden helyzetben? Hogyan határozzuk meg a saját, mi legyen a helyes döntés?

Hasonló problémák egyértelműen látjuk a példát autonóm járművek. Tegyük fel, hogy a kutya keresztezi az utcán. Ha egy robot autó fordulni, hogy ne hozza le a kutyát, de veszélyeztetik azok utasai? És ha ez nem egy kutya és egy gyerek? Vagy egy busz? Most képzeljünk el egy háborús övezet.

„Mi nem tudnak megegyezni, hogyan kell írni egy használati utasítás az autó, - mondja Garipay. - És most mi is szeretnénk, hogy menjen egy olyan rendszert, el kell döntenie, hogy használja a halálos erő neki, vagy sem. "

Hogy hűvös a dolgokat, nem fegyverek

Peter Asaro töltötte az elmúlt néhány évben, lobbi tilalmat gyilkos robotok a nemzetközi közösség, mint az alapító a Nemzetközi Kábítószer-ellenőrző robot csapatok. Úgy véli, hogy eljött az ideje az „egyértelmű nemzetközi tilalmat azok fejlesztése és használata.” Elmondása szerint, ez lehetővé teszi a vállalatok, mint ClearPath továbbra nagy dolgokra „anélkül, aggasztó, hogy a termékek lehet, hogy megsértik az emberek jogait és fenyegetések a civileket.”

Önálló katonai rakéták érdekes, mert megoldja taktikai problémákat. Amikor herék távirányítóval, például munka harci körülmények között, gyakran elnyomja az ellenséges érzékelők vagy a hálózati kapcsolat egy emberi operátor nem láthatja, hogy mi történik, vagy drone ellenőrzés.

Garipay azt mondja, hogy ahelyett, hogy a fejlődő rakéták, vagy herék, hogy eldöntheti, hogy mi célt támadni, a katonai kell pénzt költeni, hogy javítsa az érzékelők és az anti-hangtompító technológia.

„Miért nem veszünk olyan beruházást, amely az emberek szeretnének befektetni építeni az autonóm gyilkos robotok, és nem fektetnek be hatékonyságának javítása a meglévő technológiák? - mondja. - Ha mi jelenthet problémát, és leküzdeni ezt az akadályt, tudjuk, hogy ez a technológia a munka az emberek, nem csak a hadsereg. "

Az elmúlt években, mint a gyakoribb beszélgetések veszélyeire mesterséges intelligencia. Elon Musk aggasztja, hogy out-of-control AI képes elpusztítani az élet, mint tudjuk. A múlt hónapban, pézsma adományozott 10 millió $ a kutatás területén a mesterséges intelligencia.

Az egyik fontos kérdés, hogyan befolyásolják az AI a világ, hogy egyesül a robotika. Valamiféle Baidu kutató Andrew Ng attól tartanak, hogy a közelgő forradalom AI veszi az embereket a munka. Mások, mint a félelem, hogy Garip rabol és az élet.

Garipay reméli kollégái, tudósok és gépgyártók gondolni, hogy mit csinálnak. ClearPath Robotics ezért vette az emberek oldalán. „Bár a cég nem tesz ez a $ 10 millió, de nem tudjuk tenni a hírnevét.”

A tanár tudta, hogy igazam volt, de nem tudta elfogadni ezt a következtetést. Ez olyan szép, hogy hisznek a kizárólagosság, és így nehéz elválni az illúziót.
A lecke véget ért, elbúcsúztunk, és én először gondoltam: „És ha tudok rájönni, hogyan működik ez a dolog a vállamon?” Tudtam, hogy van kilátás a lehetetlen felmérni, hogy milyen az agy egy másik agy, mint ez az eszköz hasonló jellemzőkkel, amelyek nem teszik lehetővé, hogy megértsük a működését egy ilyen összetett szerkezet, mint, sőt, az agyban. De nem féltem. Azonban a kérdést tették fel, és egyelőre, és az idő elfelejteni.
Azonban a 40 éves, annak megértését, hogy a test pedig a viselkedés sikerült elérni. Ennek eredményeként sikerült megfogalmazni fogalmi megközelítése a probléma megoldására.
Megfogalmazása részletes koncepció még csak most jön.

Kapcsolódó cikkek