Narito Kung Paano Namin Itigil ang Hinaharap Rogue A.I. mula sa pagsamahin HAL 9000

$config[ads_kvadrat] not found

HAL 9000: "I'm sorry Dave, I'm afraid I can't do that"

HAL 9000: "I'm sorry Dave, I'm afraid I can't do that"
Anonim

Paano namin ihihinto ang isang hinaharap A.I. mula sa mga hindi pagsunod sa mga order at pumipili ng sariling paraan? Ito ay maaaring tunog tulad ng isang lagay ng lupa mula sa 2001: Isang Space Odyssey, ngunit ang isang dalubhasa ay nagsasabi na ito ay isang bagay na maaaring mayroon tayo upang simulan ang pag-iisip tungkol sa. Oo naman, maaari naming isara ang algorithm ng paghahanap sa Google kung ito ay nagpunta rogue, ngunit kapag nahaharap sa pinansiyal at legal na mga kahihinatnan, maaaring ito ay mas madaling sinabi kaysa tapos na. Sa hinaharap, habang lumalaki tayo sa mas advanced na A.I., maaari itong patunayan imposible.

"Ang algorithm na ito ay hindi sadyang pagdidisenyo mismo imposibleng i-reboot o i-off, ngunit ito ay co-evolved upang maging na paraan, "sinabi Stuart Armstrong, isang tagapagpananaliksik sa Hinaharap ng Sangkatauhan Institute, sa Pirate Summit 2016 sa Miyerkules. Nangangahulugan ito na ang isang pagbabago sa hindi sinasadyang mga resulta ay maaaring maging mahirap na maitama, at maaaring hindi ito ang unang A.I. upang mahanap ang sarili sa sitwasyong iyon.

Ang solusyon ni Isaac Asimov ay ang tatlong batas ng robotics, na kung saan ang mga ideya ng hard code ay hindi na nagiging sanhi ng pinsala sa mga tao. Ang problema ay, ang pinsala sa halip ay subjective at bukas sa interpretasyon. Ang mga tao ay nagtatrabaho nang higit pa sa mga halaga, tulad ng pag-unawa na ito ay masama upang maging sanhi ng pinsala at pagbibigay kahulugan sa sitwasyon, kaysa sa pagtatrabaho sa ilang mahigpit na tuntunin na hindi nila dapat saktan.

"Ito ay dahil sa ganitong uri ng problema na ang mga tao ay mas masigasig ngayon sa paggamit ng pag-aaral ng machine upang makakuha ng mga halaga sa halip na sinusubukang i-code ang mga ito sa tradisyunal na paraan," sabi ni Armstrong. "Ang mga halaga ay matatag sa isang paraan na ang ibang mga bagay ay wala sa A.I. Ang mga halaga ay nagpoprotekta sa kanilang sarili."

Ngunit kahit sa mga sitwasyong ito, mahalaga na magdisenyo ng A.I. upang gawin itong interruptible habang sila ay tumatakbo. Ang ligtas na pagkagambala ay nagbibigay-daan para sa mga ligtas na pagbabago sa patakaran, na maaaring maiwasan ang mga hindi inaasahang kahihinatnan mula sa natutunan na mga halaga. Kung ang HAL 9000 ay sinubukan mong itigil ang mga pintuan ng pod bay mula sa pagbubukas, mahalaga na makilala namin na ang mga halaga ng A.I. ay napinsala, at mamagitan nang hindi ginagalaw ang sistema nang offline.

$config[ads_kvadrat] not found