Musk, Wozniak, Hawking, Iba Pang Mga Genius Ang Ay Nakikipaglaban sa mga Awtonomang Armas

$config[ads_kvadrat] not found

Musk, Wozniak, and Hawking Push to Stop AI Warfare

Musk, Wozniak, and Hawking Push to Stop AI Warfare
Anonim

Sa loob ng maraming mga dekada, ang AK-47 ay ang pagpatay na makina ng pagpili sa maraming maalikabok na sulok ng mundo dahil ito ay mura, matibay, at nasa lahat ng pook. Yaong parehong mga kadahilanan, magtaltalan signatories ng isang bukas na sulat na inilabas Lunes mula sa Future ng Buhay Institute, ang dahilan ng autonomous na armas ay puno na may panganib. Ngunit kung ano ang naghihiwalay sa artipisyal na armas ng katalinuhan mula sa Kalashnikovs ay ang "autonomous machine" ay maaaring "pumili at gumawa ng mga target na walang interbensyon ng tao" - na, sa maling mga kamay, ay maaaring gumawa ng mga kalupitan na mas malaki kaysa sa anumang di-kalalaki na rifle.

Ang mga nagpirma ay pinutol ang kanilang trabaho para sa kanila. Bilang mga tao, tayo ay, sa kabuuan, mas mahusay sa reaksyon kaysa sa pag-iisip. Ang mga malalaking manlalaro ay naging mabagal upang mapababa ang aming mga armas sa nuclear (at pagbuo ng mga autonomous drone, ang pag-iisip ay napupunta, ay nangangailangan ng isang maliit na bahagi ng makinarya na napupunta sa paglikha ng isang nuke); sa iba pang lugar, ang mga mina sa lupa ay naka-dot pa rin ng mga dekada-lumang larangan ng digmaan. Kapag ang isang teknolohiya ay tumayo upang baguhin nang lubusan ang pakikidigma - maging ito pulbura o hukbong-dagat na dreadnoughts o enriched uranium - diyan ay halos hindi kailanman hindi naging lahi ng armas.

Ang FLI ay gumagawa ng pagkakaiba sa pagitan ng mga drone na mayroon na tayo ngayon, piloto sa malayo sa pamamagitan ng mga kamay ng tao, at ang isang robot ay nakabukas at iniwan sa sarili nitong mga aparato ng pagpatay. Ang pagbuo ng huli ay magsulid ng pandaigdigang lahi ng AI armas na ang FLI ay tumutukoy, at ang kasaysayan ng Kalashnikov ay nagpapakita, ay hindi magtatapos ng maayos:

Ito ay lamang ng isang bagay ng oras hanggang lumitaw sila sa itim na merkado at sa mga kamay ng mga terorista, mga diktador na nagnanais na mas mahusay na kontrolin ang kanilang mga mamamayan, mga warlord na nagnanais na gawin ang etnikong paglilinis, atbp. Ang mga awtonomong armas ay mainam para sa mga gawain tulad ng assassinations, destabilizing mga bansa, pagsupil sa mga populasyon at piliing pagpatay sa isang partikular na grupong etniko. Samakatuwid namin naniniwala na ang isang militar AI arm lahi ay hindi magiging kapaki-pakinabang para sa sangkatauhan. Maraming mga paraan kung saan ang AI ay maaaring gumawa ng mga larangan ng digmaan na mas ligtas para sa mga tao, lalo na ang mga sibilyan, nang walang paglikha ng mga bagong tool para sa pagpatay ng mga tao.

Ito ay ilang mabigat na tae. At ang mga pangalan sa likod ng babalang ito ay hindi ang iyong Skynet crackpots-sila-ang mga tagalikha, mga inhinyero, siyentipiko, at mga philosopher na nakatulong sa hugis kung ano ang hitsura ng ating teknolohiya ngayon. Ang isang slice ng mga pangalan ay kinabibilangan ng: Steve Wozniak ng Apple, Skype's Jaan Tallinn, Harvard physicist na si Lisa Randall, isang sino sa mga mananaliksik at roboticists ng AI - kasama na sina Stuart Russell, Barbara J. Grosz, Tom Mitchell, Eric Horvitz - aktres na si Talulah Riley, Noam Chomsky, Stephen Hawking.

Ang Hawking ay may kaunti sa isang pesimistiko na baluktot kamakailan lamang, na muling binibigkas ang kanyang mga hula tungkol sa mga panganib na makatagpo ng buhay na extraterrestrial. Sasagutin din niya ang mga tanong tungkol sa liham na ito at ang kinabukasan ng teknolohiya sa Reddit sa linggong ito - maaaring hindi namin magagawang kontrolin ang pagalit na mga dayuhan, ngunit maaari naming ilagay ang "onus sa mga siyentipiko sa harap ng teknolohiya na ito upang mapanatili ang tao na kadahilanan harap at sentro ng kanilang mga likha."

Maaari mo ring idagdag ang iyong pangalan sa liham.

$config[ads_kvadrat] not found