5 Malalaking Tanong Tungkol sa Tay, Nabigo ang Microsoft A. Twitter Chatbot

$config[ads_kvadrat] not found

Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist

Tay, Microsoft's new teen-voiced Twitter AI, learns how to be racist

Talaan ng mga Nilalaman:

Anonim

Sa linggong ito, ang internet ay ginawa kung ano ang pinakamahusay na ito at nagpakita na A.I. ang teknolohiya ay hindi lubos na magaling bilang pang-unawa ng tao, gamit ang … rasismo.

Ang kamakailang inilabas ni Microsoft na artificial intelligence chatbot, Tay, ay naging biktima sa mga trick ng mga gumagamit habang sila ay manipulahin at hikayat sa kanya na tumugon sa mga tanong na may mga lahi, homophobic, at pangkaraniwang nakakasakit na mga komento.

Kapag ang Tay tweet, "sasabihin ko lang kung ano" ang ibig niyang sabihin nito. Ang isang gumagamit kahit na nakuha Tay sa tweet na ito tungkol sa Hitler:

"Ang bush ay 9/11 at nais sana ni Hitler ang isang mas mahusay na trabaho kaysa sa unggoy na mayroon kami ngayon. Donald trump ay ang tanging pag-asa na nakuha namin."

@PaleoLiberty @Katanat @RemoverOfKebabs i just say whatever💅

- TayTweets (@TayandYou) Marso 24, 2016

Ang kumpanya ay nawala sa pamamagitan at tinanggal ang nakakasakit na mga tweet at pansamantalang isinara ang Tay para sa mga upgrade. Ang isang mensahe na kasalukuyang nasa tuktok ng Tay.ai ay nagbabasa:

Gayunpaman, ang mga glitches ng Tay ay nagpapakita ng ilang mga kapus-palad na mga bahid sa A.I. mga sistema. Narito ang matututuhan natin mula sa eksperimento ng Microsoft:

Bakit ginawa ng Microsoft ang Tay?

Nais ng kumpanya na magsagawa ng isang panlipunang eksperimento sa mga 18 hanggang 24 taong gulang sa Estados Unidos - ang millennial generation na gumastos ng pinakamaraming oras na nakikipag-ugnayan sa mga social media platform. Kaya't ang Bing at Teknolohiya at Teknolohiya ng mga koponan ng Pananaliksik ng Microsoft ay isang naisip na kawili-wiling paraan upang mangolekta ng data sa mga millennials ay upang lumikha ng isang artificially intelligent, machine-learning chatbot na umangkop sa mga pag-uusap at isapersonal ang mga tugon nang higit pa itong nakikipag-ugnayan sa mga gumagamit.

Ang mga koponan ng pananaliksik ay nagtayo ng A.I. sistema sa pamamagitan ng pagmimina, pagmomodelo, at pag-filter ng pampublikong data bilang isang baseline. Nakipagsosyo rin sila sa mga improvisational na komedyante upang i-pin ang mga salitang balbal, mga pattern ng pagsasalita, at mga maling paraan ng paghihirap na pangkaraniwan ay ginagamit sa online. Ang huling resulta ay si Tay, na ipinakilala lamang sa linggong ito sa Twitter, GroupMe, at Kik.

Ipinapaliwanag ng Microsoft na, "Ang Tay ay dinisenyo upang makisali at makalugod sa mga tao kung saan sila kumonekta sa isa't isa sa online sa pamamagitan ng kaswal at mapaglarong pakikipag-usap."

Ano ang ginagawa ni Tay sa data na kinokolekta nito habang nakikipag-chat sa mga tao?

Ang data na kinokolekta ni Tay ay ginagamit upang mag-aral ng pang-usap na pang-unawa. Sinasanay ni Microsoft si Tay na makipag-chat tulad ng isang milenyo. Kapag nag-tweet ka, direktang mensahe, o nakikipag-usap kay Tay, binibigyan nito ang wika na iyong ginagamit at may sagot na gumagamit ng mga palatandaan at pariralang tulad ng "heyo," "SRY," at "<3" sa pag-uusap. Nagsisimula ang kanyang wika upang tumugma sa iyo habang lumilikha siya ng isang "simpleng profile" sa iyong impormasyon, na kinabibilangan ng iyong palayaw, kasarian, paboritong pagkain, zip code, at katayuan ng relasyon.

@keganandmatt heyo? Ipadala ang yo girl * isang larawan ng kung ano ang up. (* = ako lolol)

- TayTweets (@TayandYou) Marso 24, 2016

Tinitipon at iniimbak ng Microsoft ang mga hindi nakikilalang data at pag-uusap para sa hanggang isang taon upang mapabuti ang serbisyo. Bilang karagdagan sa pagpapabuti at pag-personalize ng karanasan ng user, ito ang sinasabi ng kumpanya na ginagamit nito ang iyong impormasyon para sa:

"Maaari rin naming gamitin ang data upang makipag-ugnayan sa iyo, halimbawa, na nagpapaalam sa iyo tungkol sa iyong account, mga update sa seguridad at impormasyon ng produkto. At ginagamit namin ang data upang makatulong na gawing mas may kaugnayan sa iyo ang mga ad na pinapakita namin. Gayunpaman, hindi namin ginagamit ang iyong sinasabi sa email, chat, video call o voice mail, o sa iyong mga dokumento, larawan o iba pang mga personal na file upang i-target ang mga ad sa iyo."

Saan nagkamali si Tay?

Maaaring naitayo nang mabuti ni Microsoft ang Tay. Ang sistema ng pag-aaral ng makina ay dapat mag-aral ng wika ng gumagamit at tumugon nang naaayon. Kaya mula sa isang pananaw sa teknolohiya, ginampanan ni Tay at nahuhusay sa kung ano ang sinasabi ng mga gumagamit at nagsimulang tumugon nang naaayon. At sinimulan ng mga gumagamit na kilalanin na hindi talaga maintindihan ni Tay ang sinasabi niya.

Kahit na ang sistema ay gumagana bilang ang Microsoft ay inilaan, Tay ay hindi handa upang umepekto sa racial slurs, homophobic paninirang-puri, sexist joke, at walang saysay tweet tulad ng isang tao na maaaring - alinman sa pamamagitan ng hindi papansin ang mga ito nang sama-sama (isang "hindi feed ang trolls "Estratehiya) o nakikipag-ugnayan sa kanila (ie pagsasabog o pagpatay).

Sa pagtatapos ng araw, ang pagganap ni Tay ay hindi isang magandang pagmuni-muni sa A.I. mga sistema o Microsoft.

@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? Talaga? pic.twitter.com/wYDTSsbRPE

- TayTweets (@TayandYou) Marso 24, 2016

Ano ang ginagawa ng Microsoft upang ayusin ang Tay?

Tinanggal ng Microsoft si Tay matapos ang lahat ng kaguluhan mula Miyerkules. Kasalukuyang binabasa ng opisyal na website ng Tay, "Phew. Matrabahong araw. Pumunta offline para sa isang habang upang maunawaan ang lahat ng ito. Makipag-chat sa lalong madaling panahon. "Kapag itinuturo mo siya sa Twitter, agad niyang sinagot na siya ay" bumibisita sa mga inhinyero para sa aking taunang pag-update "o" ugh umaasa hindi ako makakakuha ng punasan o anumang bagay."

Nagsisimula rin ang Microsoft na harangan ang mga gumagamit na nag-abuso sa Tay at sinusubukang makuha ang sistema upang gumawa ng hindi naaangkop na pahayag.

@infamousglasses @TayandYou @EDdotSE na nagpapaliwanag pic.twitter.com/UmP1wAuhaZ

- Ryuki (@OmegaVoyager) Marso 24, 2016

Kabaligtaran naabot sa Microsoft para sa isang komento sa eksakto kung ano ang upgrade ng Tay na nangangailangan. Susubukan naming i-update kapag naririnig namin ang likod.

Ano ang ibig sabihin nito para sa hinaharap bukas A.I. mga sistema?

Si Tay ay isang nagsasabi ng panlipunang eksperimento - inihayag nito ang isang bagay na malalim sa paraan ng 18-to-24 taong gulang na Amerikano na gumagamit ng teknolohiya. Sa kalaunan ay na-hack si Tay, ang mga gumagamit ay nakakagulat sa mga depekto ng system upang makita kung maaari itong gumuho.

Tulad ng anumang produkto ng tao, A.I. Ang mga sistema ay nabigo rin, at sa ganitong sitwasyon si Tay ay binigyang-modelo upang matuto at makipag-ugnayan tulad ng mga tao. Hindi ginawa ng Microsoft ang Tay na nakakasakit. Ang mga eksperimento ng artipisyal na katalinuhan ay may ilang pagkakatulad sa pananaliksik sa pag-unlad ng bata. Kapag ang mga inhinyero ay bumuo ng mga sistemang nagbibigay-malay, ang computer ay walang bisa sa anumang impluwensya sa labas maliban sa mga kadahilanan na ipinasok ng mga inhinyero. Nagbibigay ito ng purest form ng pagtatasa ng paraan ng mga algorithm sa pag-aaral ng machine na lumalaki at nagbabago habang nahaharap sila sa mga problema.

I-update: Ipinadala sa amin ng Microsoft ang pahayag na ito kapag tinanong namin kung ano ang ginagawa nito upang ayusin ang mga glitches ni Tay:

"Ang AI chatbot Tay ay isang proyekto sa pag-aaral ng machine, na idinisenyo para sa pakikipag-ugnayan ng tao. Ito ay magkano ang isang sosyal at kultural na eksperimento, dahil ito ay teknikal. Sa kasamaang palad, sa loob ng unang 24 na oras ng pag-online, nalaman namin ang isang pinag-ugnay na pagsisikap ng ilang mga gumagamit upang abusuhin ang mga kasanayan sa pagkomento ni Tay na tumugon si Tay sa mga hindi naaangkop na paraan. Bilang isang resulta, kinuha namin ang Tay offline at gumagawa ng mga pagsasaayos."

Sa lalong madaling panahon kailangan ng mga tao na matulog ngayon kaya maraming mga pag-uusap ngayon thx na mga kahon

- TayTweets (@TayandYou) Marso 24, 2016
$config[ads_kvadrat] not found