A.I. Eksperto Virginia Dignum: Problema sa Troli Ipinapakita Bakit Kailangan Natin ang Transparency

$config[ads_kvadrat] not found

20 Hindi Malilimutang Disenyo ng Muwebles sa Buong Bagong Antas 2020

20 Hindi Malilimutang Disenyo ng Muwebles sa Buong Bagong Antas 2020
Anonim

Kinakailangan ng artipisyal na katalinuhan ang transparency upang ang mga tao ay maaring mahawakan ito sa account, sinasabing isang mananaliksik. Ang Virginia Dignum, Associate Professor sa Delft University of Technology, ay nagsabi sa isang madla sa New York University noong Biyernes na kung hindi namin maintindihan kung bakit ang mga machine kumilos ang paraan ng kanilang ginagawa, hindi namin magagawang hatulan ang kanilang mga desisyon.

Binanggit ni Dignum ang isang kuwento ni David Berreby, isang manunulat ng siyensiya at tagapagpananaliksik, na na-publish sa Psychology Today: "Ang katibayan ay nagpapahiwatig na kapag ang mga tao ay nagtatrabaho sa mga makina, ang pakiramdam nila ay hindi gaanong pakiramdam ng pagiging ahensya kaysa sa ginagawa nila kapag nag-iisa sila o sa ibang mga tao."

Ang "problema sa troli," ang ipinaliwanag ni Dignum, ay isang lugar kung saan ang mga tao ay maaaring maglagay ng bulag na pananalig sa isang makina upang piliin ang tamang kinalabasan. Ang tanong ay kung papalitan ang pingga sa isang hypothetical runaway train upang mapapatay nito ang isang tao sa halip na limang. Inaasahan ng mga tao ang mga machine upang malutas ang problema sa pinaka-nakapangangatwiran paraan posible. Gayunman, hindi ito laging maging kaso, at ang transparency ay makakatulong na ipaliwanag kung papaano ang desisyon ng makina.

"Hindi lamang isang napaka-malalim, neural network chain ng mga kaganapan na walang sinuman ang maaaring maunawaan, ngunit upang gawin ang mga paliwanag sa isang paraan na maunawaan ng mga tao," sinabi niya.

A.I. na ginagawang malinaw ang mga gawain nito ay isang lugar na tinutukoy ng DARPA. Ang ahensiya ay nag-post ng isang anunsyo noong Agosto na ito ay naghahanap ng mga koponan na interesado sa maaaring ipaliwanag A.I. mga proyekto, na kilala bilang XAI. Ang mga sistemang ito ay tutulong sa mga mananaliksik na maunawaan kung bakit ang isang A.I. ginawa ang desisyon na ginawa nito, na nagbibigay ng higit na saklaw upang magpasiya kung ano ang gagawin sa nagresultang impormasyon sa halip na walang taros na pagtitiwala sa makina.

Sa pag-aaral ng machine, sinabi ni Dignum na ang transparency ay mas mahalaga kaysa dati. "Hindi namin inaasahan ang mga sistema, at lalo na ang machine sa pag-aaral machine, upang matuto, at upang malaman ang lahat ng kaagad," sinabi niya."Hindi namin inaasahan ang aming mga driver, kapag nagmamaneho, upang lubos na maunawaan ang mga batas sa trapiko. Sa maraming mga bansa, ginagamit nila ang mga "L" na mga plato upang maipakita, 'Nag-aaral ako, humingi ng paumanhin sa akin para sa mga pagkakamali na maaari kong gawin.' "Pagmamasid sa AI, pag-unawa kung paano ito dumating sa ilang mga desisyon at kumikilos batay sa na magiging mahalaga sa pagtigil ng mga makina na natututo pa mula sa paggawa ng mga masamang desisyon.

$config[ads_kvadrat] not found