Human Rights Watch: Gumagamit ang China ng Malaking Data upang Mag-target ng Mga Grupo ng Minoridad

$config[ads_kvadrat] not found

Karapatang Pantao

Karapatang Pantao
Anonim

Ang gobyerno ng China ay gumagamit ng predictive policing algorithm upang i-target ang mga etnikong minorya sa lalawigan ng Xinjiang, ayon sa ulat ng Human Rights Watch na inilabas noong Lunes.

Ang lalawigan sa hilagang-kanluran ng Tsina ay tahanan sa 11 milyong Uyghurs, isang grupong etniko ng Turkish na pinagdududahan ng gobyerno ng Tsina sa nakalipas na mga taon.

Ngayon, ang mga awtoridad ay iniulat na gumagamit ng malaking data upang sistematikong target ang sinumang pinaghihinalaang pampawalang-halaga sa pulitika. Ang push ay bahagi ng "Strike Hard" na kampanya, na naglalayong iwaksi ang potensyal na teroristang aktibidad sa Tsina. Sa pagsasagawa, ito ay humantong sa hindi katimbang na policing ng Uyghurs, sabi ng Human Rights Watch.

Ang predictive policing system, na kilala bilang IJOP - Integrated Joint Operations Platform - ay pinakain ng data mula sa iba't ibang iba't ibang mga tool sa pagsubaybay. Kabilang dito ang mga CCTV camera, plate ng lisensya at mga numero ng citizen ID card na nakuha mula sa mga checkpoint ng seguridad, at isang personal na impormasyon, kabilang ang kalusugan, pagbabangko, at legal na mga rekord.

Bilang karagdagan sa awtomatikong pagsubaybay, ang mga opisyal ng pamahalaan ay nagsasagawa ng mga in-home visit upang mangolekta ng data sa populasyon. Ang isang negosyong Tsino ay nagbahagi ng isang form na pinunan niya para sa mga rekord ng IJOP sa Human Rights Watch - bukod sa iba pang mga bagay, ang tanong ay nagtanong kung ang negosyante ay Uyghur, gaano kadalas siya nananalangin, at kung saan siya napupunta para sa mga serbisyo sa relihiyon.

Ang lahat ng mga input ng data na ito ay ginagamit ng IJOP upang i-flag ang mga tao bilang mga potensyal na banta. Kapag ang isang tao ay na-flag, buksan ng pulis ang isang karagdagang imbestigasyon at dalhin sila sa pag-iingat kung ang mga ito ay itinuturing na kahina-hinala.

"Sa kauna-unahang pagkakataon, ipinakita namin na ang paggamit ng gobyerno ng Tsina ng malaking data at predictive na policing ay hindi lamang maliwanag na lumalabag sa mga karapatan sa pagkapribado, kundi nagbibigay-daan din sa mga opisyal na arbitraryo na pigilan ang mga tao," sabi ng senior China researcher ng Human Rights Watch na si Maya Wang.

Ayon sa ulat, ang ilan sa mga flag ng mga tao ay ipinadala sa mga pampulitikang sentro ng edukasyon kung saan sila ay pinigil ng walang katiyakan nang walang pagsubok.

"Mula noong Abril 2016, tinatantya ng Human Rights Watch, ang mga awtoridad ng Xinjiang ay nagpadala ng libu-libong Uyghur at iba pang mga etnikong minorya sa 'mga pampulitikang sentro ng edukasyon,'" sabi ng ulat. Ang IJOP ay nagpapahiram ng katotohanan sa mga detensyon na ito sa pamamagitan ng pag-aaplay ng isang pakitang-tao ng layunin, algorithmic analysis sa diskriminasyon na pag-aresto.

Upang mas malala ang bagay, ang mga panloob na paggana ng IJOP ay natutugbong sa pagiging lihim.

"Ang mga tao sa Xinjiang ay hindi maaaring labanan o hamunin ang lalong mapanghimasok na pagsisiyasat sa kanilang pang-araw-araw na buhay sapagkat ang karamihan ay hindi alam ang programang 'itim na kahon' o kung paano ito gumagana," sabi ni Wang.

Ito ay ang parehong problema na sinasadya ang mga pinaka-sopistikadong mga sistema ng pag-aaral ng machine: ang mga pamamaraan ng desisyon na ginagamit nila ay hindi lampasan ng liwanag kahit na sa mga tagalikha ng algorithm.

Ang paggamit ng China ng IJOP ay nagkakahalaga ng pagbibigay pansin dahil ang predictive na policing ay malamang na lumaganap habang nagpapabuti ang teknolohiya. Tulad ng sinabi ni Jon Christian sa Ang balangkas, ang mga predictive na sistema ng policing ay ginagamit na sa ilang lugar sa Estados Unidos. Ang Los Angeles Police Deparment ay gumagamit ng software na anticipates kung saan at kailan ang mga krimen ay malamang na mangyari kaya ang mga opisyal ay maaaring magtungo sa kanila.

Sa kabilang panig ng sistemang hustisya sa krimen, ang mga courtroom ay gumagamit lamang ng mga algorithm na nagbibigay ng mga potensyal na parol na "mga pagtatasa ng panganib" na mga marka upang matulungan ang mga hukom na gumawa ng higit na kaalamang desisyon. Sa kasamaang palad, ang mga di-makatwirang mga algorithm na ito ay talagang nagpapakita ng diskriminasyon batay sa lahi.

Inaasam ng China ang predictive policing na binibigyang diin ang kahalagahan ng pagpapatupad ng responsible na algorithm habang ang pag-aaral ng machine ay patuloy na pumasok sa pampublikong sektor. Marahil ay oras na para sa mga tech-savvy na pamahalaan na magpatibay ng isang bagong mantra: Kung minsan ang artificial intelligence ay lumilikha ng higit pang mga problema kaysa sa malulutas nito.

$config[ads_kvadrat] not found