Apple iPhone X ay hindi maaaring Sabihin ang Apart Chinese Faces, Refund Given

$config[ads_kvadrat] not found

Delicious – Emily’s True Love: The Movie (Subtitles autotranslated)

Delicious – Emily’s True Love: The Movie (Subtitles autotranslated)
Anonim

Noong nakaraang linggo, sa Nanjing, isang pangunahing lungsod sa silangan ng Tsina, ang isang babae sa pangalan ni Yan ay dalawang beses na nag-alok ng refund mula sa Apple para sa kanyang may sira na iPhoneX, na na-unlock ng kanyang kasamahan gamit ang facial recognition technology. Ang parehong mga babae ay etniko Tsino.

Sinabi ni Yan sa mga lokal na balita na sa unang pagkakataon na nangyari ito, tinawag niya ang hotline ng iPhone, ngunit hindi sila naniwala sa kanya. Ito ay hindi hanggang sa siya at ang kanyang kasamahan ay nagpunta sa isang lokal na tindahan ng Apple at nagpakita sa kawani ng tindahan na inalok nila sa kanya ng isang refund at bumili siya ng bagong telepono, na nag-iisip na marahil ay may mali ang kamera na masisi.

Ngunit ang pangalawang telepono ay may parehong problema, na nagmumungkahi na ito ay hindi isang mali camera, tulad ng mga manggagawa sa tindahan iminungkahi, ngunit isang isyu sa software mismo.

Hindi ito ang unang kaso kung saan ang facial recognition software, at ang AI sa likod nito, ay nagkaroon ng problema sa pagkilala sa mga di-puting mukha.

Sa 2015, sinasadyang na-tag ng Google Photos ang isang larawan ng dalawang Aprikano-Amerikano bilang mga gorilya, habang noong 2009, nagkaroon ng problema sa pagkilala at pagsubaybay sa mga itim na mukha - ngunit ang mga HP computer http://www.youtube.com/watch?v=t4DT3tQqgRM walang problema sa mga puting mukha. Noong parehong taon, ang software ng camera ni Nikon ay nahuli na hindi sinasadya ang isang Asian face bilang kumikislap.

Google Photos, y'all fucked up. Ang aking kaibigan ay hindi isang gorilya. pic.twitter.com/SMkMCsNVX4

- Jacky (@jackyalcine) Hunyo 29, 2015

"Ito ay pangunahing problema sa data," ang isinulat ni Kate Crawford, isang punong tagapagpananaliksik sa Microsoft at ang co-chairman ng Symposium ng Obama White House sa Kapisanan at A.I. "Ang mga algorithm ay natututo sa pamamagitan ng pakain ng ilang mga imahe, kadalasang pinili ng mga inhinyero, at ang sistema ay nagtatayo ng isang modelo ng mundo batay sa mga imaheng iyon. Kung ang isang sistema ay sinanay sa mga larawan ng mga taong sobrang puti, magkakaroon ng mas mahirap na oras na makilala ang mga hindi nakikitang mukha."

Si Jacky Alcine, ang programmer na nakabase sa Brooklyn na ang larawan ay mali ang label ng Google, ay sumang-ayon. Sa kanyang karanasang sinabi niya, "Maaaring maiiwasan ito nang tumpak at mas kumpletong pag-uuri ng mga itim na tao."

Ngunit ang rasismo na naka-code sa Ai, kahit na ito ay hindi sinasadya, ay may mga implikasyon na lampas lamang sa facial recognition.

Natagpuan ng ProPublica na pagsisiyasat sa 2016 na ang mga itim na kriminal ay dalawang beses na posible nagkakamali Ang mga flag ay malamang na mag-recite ng mga krimen kaysa sa mga puting kriminal, habang ang lumalaking trend ng "predictive policing" ay gumagamit ng mga algorithm upang mag-forecast ng krimen at direktang mapagkukunan ng pulisya.

Gayon pa man ang mga komunidad ng mga minorya ay na-over-policed ​​na kasaysayan, na humahantong sa posibilidad na "ang software na ito ay panganib na nagpapanatili ng isang mabisyo na cycle," sabi ni Crawford.

Bumalik sa Nanjing, China, nakuha ni Yan ang pangalawang refund sa kanyang ikalawang iPhoneX. Mula sa lokal na mga ulat ng balita, hindi ito malinaw kung binili niya ang isang ikatlo.

Kung ano ang nakataya, oras na ito, ay maaaring lamang naging isang solong mamimili. Ngunit ang kaso ni Yan ay isang halimbawa ng patuloy na pangangailangan para sa industriya ng teknolohiya upang mag-disenyo sa pagkakaiba-iba at pagiging inclusivity sa isip.

$config[ads_kvadrat] not found