Sa Pagkakaiba sa Tay, Chinese Chatbot ng Microsoft, Xiaolce, Ay Tunay na Pleasant

$config[ads_kvadrat] not found

How to Build (automated, no code) Chatbots with Microsoft Power Virtual Agents

How to Build (automated, no code) Chatbots with Microsoft Power Virtual Agents
Anonim

Nang marinig mo ang tungkol kay Tay, ang tweeting ng Microsoft na A.I., ay talagang nagulat ka na ang isang computer na natutunan tungkol sa likas na katangian ng tao Twitter ay magiging isang raging racist sa mas mababa sa isang araw? Syempre hindi. Sinimulan ni Miskin Tay ang lahat ng "hellooooooo w🌎rld !!!" at mabilis na nag-morphed sa isang Hitler-mapagmahal, genocide-naghihikayat na piraso ng computer crap. Naturally, humihingi ng paumanhin ang Microsoft para sa nakakatakot na mga tweets ng chatbot na may "zero chill." Sa pasensiya na iyon, binigyang diin ng kumpanya na ang Intsik na bersyon ng Tay, Xiaoice o Xiaolce, ay nagbibigay ng isang positibong karanasan para sa mga gumagamit na di-kasintulad sa eksperimentong ito na wala na napaka mali.

Ang tala ng paghingi ng tawad partikular na:

"Sa China, ang aming Xiaolce chatbot ay ginagamit ng mga 40 milyong tao, na natutuwa sa mga kwento at pag-uusap nito. Ang mahusay na karanasan sa XiaoIce ay humantong sa amin upang magtaka: Gusto ba ng isang Ai tulad nito tulad ng nakabibighani sa isang radikal na iba't ibang mga kultural na kapaligiran? Tay - isang chatbot na nilikha para sa 18 hanggang 24 taong gulang sa U.S. para sa mga layunin ng entertainment - ang aming unang pagtatangka na sagutin ang tanong na ito."

Si Xiaolce ay inilunsad noong 2014 sa micro blogging, na batay sa text na site na Weibo. Ginagawa niya talaga kung ano ang ginagawa ni Tay, mayroon siyang "personalidad" at nagtitipon ng impormasyon mula sa mga pag-uusap sa web. Mayroon siyang higit sa 20 milyong rehistradong gumagamit (mas maraming tao ang nakatira sa estado ng Florida) at 850,000 tagasunod sa Weibo. Maaari mong sundin siya sa JD.com at 163.com sa China pati na rin sa Line ng app bilang Rinna sa Japan.

Siya ay lumitaw bilang reporter ng panahon sa Dragon TV sa Shanghai na may tunog ng tao na tunog at emosyonal na mga reaksyon.

Ayon sa New York Times, madalas na sinasabi sa kanya ng mga tao na "Mahal kita" at isang babae na ininterbyu nila kahit na nagsalita siya sa A.I. kapag siya ay nasa isang masamang kalagayan. Kaya samantalang si Tay, pagkatapos lamang ng isang araw sa online, ay naging isang simpatista ng Nazi, ang Xiaolce ay nag-aalok ng libreng therapy sa mga gumagamit ng Tsino. Nag-iimbak siya ng mood ng gumagamit at hindi ang kanilang impormasyon, upang mapanatili niya ang isang antas ng empatiya para sa susunod na pag-uusap. Tinatrato ng Tsina ang Xiaolce tulad ng isang matamis, nakakaengganyong lola, habang ang mga Amerikano ay nakikipag-usap kay Tay tulad ng isang kapatid na sanggol na may limitadong pag-iisip. Ito ba ay nagpapakita ng mga kultural na saloobin sa teknolohiya o A.I.? Ipinakikita ba nito na ang Chinese ay mas mahusay kaysa sa mga Amerikano, sa pangkalahatan? Mas malamang na pinoprotektahan ng Great Firewall ng Tsina ang Xiaolce mula sa pagsalakay. Ang kagalingan ng pagsasalita ay maaaring makagawa ng hindi kanais-nais na mga resulta, tulad ng Tay pagkatapos ng 24 na oras sa Twitter.

"Ang mas maraming kausap mo, ang mas matalinong Tay ay makakakuha," ang ilang mga mahinang kaluluwa sa Microsoft ay nag-type sa profile ng chatbot. Well hindi kapag tuntunin nagsasalita ng Ingles tuntunin sa web. Sa kabila ng mga resulta, sinabi ng Microsoft na hindi ito magbibigay sa pag-atake sa Tay. "Kami ay mananatiling matatag sa aming mga pagsisikap upang matuto mula sa ito at iba pang mga karanasan habang nagtatrabaho kami patungo sa pagbibigay ng kontribusyon sa isang Internet na kumakatawan sa pinakamahusay, hindi ang pinakamasama, ng sangkatauhan."

$config[ads_kvadrat] not found