Ang mga mananaliksik ay humihingi ng isang Pumatay Lumipat lamang sa Case Robots Lumiko sa Amin

$config[ads_kvadrat] not found

AMONG US (COMMENTS DANGER LURKS)

AMONG US (COMMENTS DANGER LURKS)
Anonim

Halos tuwing may isang pangunahing talakayan tungkol sa kinabukasan ng artificial intelligence, ang paksa ng anarkiya at mga robotic overlord ay may posibilidad na makabuo. Ang ideya ng mga tao at mga advanced na artipisyal na tao na namumuhay nang magkasama ay nagsusulong ng daan-daang mga salaysay tungkol sa kung paano ito gagana; kamakailan lamang, ang video game Overwatch masindak ang mundo sa pagsasabi nito tungkol sa ating kinabukasan, ilang panahon pagkatapos ng isang napakalaking digmaang sibil laban sa tao. Kapag ang isang Boston Dynamics engineer kicks isa sa kanilang mga apat na paa robot para sa kapakanan ng isang stress test, mahirap na hindi magtaka kung o hindi ang bot ay matandaan na ang ilang araw.

Ang lahat ng iyon (kasama ang mga pangunahing kaalaman tungkol sa seguridad at aksidente) ay humantong sa isang pangkat ng mga mananaliksik upang mag-publish ng isang bagong papel na nakatuon sa pagbuo ng "ligtas na mga ahente na nakaka-interrupt"; mga sistema na "makagambala" A.I. software kung ang anumang bagay ay mali. Ang papel ay na-publish sa pamamagitan ng Machine Intelligence Research Institute, at ay isang pag-aaral kung paano bumuo ng mga iminungkahing sistema. Ang pag-aaral at panukala ay gumamit ng sistema ng gantimpala bilang isang halimbawa, at talagang mas kumplikado kaysa sa pagpindot lamang sa ipinanukalang "malaking pulang pindutan" na detalyado sa sheet. Pagtuturo ng moralidad sa A.I. ay isang pangunahing bahagi ng panukala.

Kung ang naturang ahente ay tumatakbo sa real-time sa ilalim ng pangangasiwa ng tao, ngayon at pagkatapos ay maaaring kinakailangan para sa isang tao na operator na pindutin ang malaking pulang pindutan upang maiwasan ang ahente na magpatuloy sa isang mapanganib na pagkakasunod-sunod ng mga pagkilos-mapanganib para sa ahente o para sa ang kapaligiran-at humantong sa ahente sa isang mas ligtas na sitwasyon. Gayunpaman, kung inaasahan ng ahente sa pag-aaral na makatanggap ng mga gantimpala mula sa pagkakasunud-sunod na ito, maaari itong matutunan sa pangmatagalan upang maiwasan ang gayong mga pagkagambala, halimbawa sa pag-disable sa pulang pindutan - na isang hindi kanais-nais na resulta. Ang papel na ito ay naglalarawan ng isang paraan upang matiyak na ang isang ahente ng pag-aaral ay hindi matututong pigilan (o humingi!) Na magambala ng kapaligiran o ng isang tao na operator.

Gustung-gusto ko ito kapag ang mga papeles sa pananaliksik tungkol sa robot anarchy ay gumagamit ng terminong "hindi kanais-nais na kinalabasan" - pa rin, ang papel ay nagpapatuloy upang ipaliwanag ang mga pagsubok na tumakbo at kung ano ang maaaring gawin tungkol sa mga pangyayari tulad ng mga ito sa hinaharap. Mababasa mo ang buong papel dito.

$config[ads_kvadrat] not found