Twitteri algoritmi rassiline eelarvamus viitab suuremale tehnilisele probleemile

Sisukord:

Twitteri algoritmi rassiline eelarvamus viitab suuremale tehnilisele probleemile
Twitteri algoritmi rassiline eelarvamus viitab suuremale tehnilisele probleemile
Anonim

Võtmed kaasavõtmiseks

  • Twitter loodab parandada seda, mida kasutajad nimetavad oma pildi eelvaate tarkvaras rassiliseks eelarvamuseks.
  • Tehnikahiiglase üleskutse võib olla kultuuriline arvestus, mida tööstus vajab mitmekesisuse probleemide lahendamiseks.
  • Tehnika mitmekesisuse puudumine kahjustab selle tehnoloogiliste edusammude tõhusust.
Image
Image

Twitter alustab oma piltide kärpimisalgoritmi uurimist pärast seda, kui sellest sai trendikas teema, mis ajendas tehnoloogiatööstuse mitmekesisuse teemadel laiem alt rääkima.

Sotsiaalmeedia jõmpsikas jõudis pealkirjadesse pärast seda, kui kasutajad avastasid tema pildi eelvaate algoritmis ilmse rassilise eelarvamuse. Avastus juhtus pärast seda, kui Twitteri kasutaja Colin Madland kasutas platvormi, et teavitada Zoomi suutmatusest ära tunda oma mustanahalisi kolleege, kes kasutasid rohelise ekraani tehnoloogiat, kuid suure irooniana leidis ta, et Twitteri piltide kärpimisalgoritm käitus sarnaselt ja jättis mustanahalised näod tähtsusetuks.

Kindlasti on see iga vähemuse jaoks suur probleem, kuid ma arvan, et see on ka palju laiem probleem.

Teised kasutajad said trendi kaasa, tekitades mitmeid viiruslikke säutse, mis näitasid, et algoritm eelistas järjekindl alt valgeid ja heledama nahaga nägusid, alates inimestest kuni koomiksitegelaste ja isegi koerteni. See ebaõnnestumine viitab suuremale kultuurilisele liikumisele tehnoloogiatööstuses, mis ei ole järjekindl alt suutnud arvestada vähemusrühmadega, mis on kandunud üle tehnilisele poolele.

"See paneb vähemused tundma kohutav alt, nagu nad poleks olulised, ja seda saab kasutada muude asjade jaoks, mis võivad põhjustada tõsisemat kahju," ütles ülikooli arvutiteaduse professor Erik Learned-Miller. Massachusettsist, ütles telefoniintervjuus."Kui olete otsustanud, milleks tarkvara saab kasutada ja millised kahjud võivad tekkida, hakkame rääkima viisidest, kuidas nende juhtumise võimalust minimeerida."

Kanaari saar ajateljel

Twitter kasutab säutsudesse manustatud piltide automaatseks kärpimiseks närvivõrke. Algoritm peaks eelvaateks tuvastama näod, kuid sellel näib olevat märgatav valge nihe. Ettevõtte pressiesindaja Liz Kelley säutsus vastuse kõigile muredele.

Kelley säutsus: "Täname kõiki, kes selle küsimuse tõstatasid. Testisime enne mudeli tarnimist kallutatust ega leidnud oma testimisel tõendeid rassilise või soolise eelarvamuse kohta, kuid on selge, et meil on vaja rohkem analüüsida. avame oma töö lähtekoodiga, et teised saaksid üle vaadata ja paljundada."

Valge raamatu "Facial Recognition Technologies in The Wild: A Call for a Federal Office" kaasautor Learned-Miller on näopõhise tehisintellekti õppimise tarkvara liialduste alal juhtiv uurija. Ta on juba aastaid arutanud imagoõppe tarkvara võimalikku negatiivset mõju ja rääkinud reaalsuse loomise tähtsusest, kus neid eelarvamusi nende võimaluste piires leevendatakse.

Paljud näotuvastustehnoloogia algoritmid kasutavad andmete jaoks võrdluskomplekte, mida sageli nimetatakse treeningkomplektideks, mis on piltide kogum, mida kasutatakse pildiõppe tarkvara käitumise peenhäälestamiseks. Lõppkokkuvõttes võimaldab see AI-l hõlpsasti ära tunda mitmesuguseid nägusid. Nendel võrdluskomplektidel võib aga puududa mitmekesine kogum, mis põhjustab selliseid probleeme nagu Twitteri meeskond.

"Kindlasti on see iga vähemuse jaoks suur probleem, kuid ma arvan, et see on ka palju laiem probleem," ütles Learned-Miller. "See on seotud mitmekesisuse puudumisega tehnoloogiasektoris ja vajadusega tsentraliseeritud reguleeriva jõu järele, mis näitaks sellise võimsa tarkvara õiget kasutusviisi, mis on altid väärkasutamisele ja kuritarvitamisele."

Tehnikas puudub mitmekesisus

Twitter võib olla uusim tehnoloogiaettevõte tükeldamisel, kuid see pole kaugeltki uus probleem. Tehnikavaldkond on endiselt valdav alt valge, pidev alt meeste domineeriv valdkond ning teadlased on leidnud, et mitmekesisuse puudumine põhjustab arendatud tarkvara süsteemse ajaloolise tasakaalustamatuse replikatsiooni.

New Yorgi ülikooli AI Now Institute'i 2019. aasta aruandes leidsid teadlased, et mustanahalised moodustavad riigi tipptehnoloogiaettevõtete tööjõust alla 6 protsendi. Samamoodi moodustavad naised vaid 26 protsenti valdkonna töötajatest – see on väiksem kui nende osakaal 1960. aastal.

See tekitab vähemustes kohutava tunde, nagu nad poleks olulised, ja seda saab kasutada muude asjade jaoks, mis võivad põhjustada tõsisemat kahju.

Pe altnäha võivad need esindusprobleemid tunduda igapäevased, kuid praktikas võib tekitatud kahju olla sügav. AI Now Institute'i aruande teadlased viitavad sellele, et see on põhjuslikult seotud probleemidega, mis on seotud tarkvaraga, mis ei suuda sageli arvestada mittevalgete ja mittemeeste populatsioonidega. Olenemata sellest, kas infrapuna-seebi dosaatorid ei suuda tuvastada tumedamat nahka või Amazoni tehisintellekti tarkvara, mis ei suuda eristada naiste nägusid oma meessoost kolleegide omadest, ei suuda tehnoloogiatööstuse mitmekesisusega tegeleda, et tehnoloogia ei suuda mitmekesise maailmaga toime tulla.

"Paljud inimesed pole probleeme läbi mõelnud ega mõista tegelikult, kuidas need asjad võivad kahjustada ja kui olulised need kahjud on," soovitas Learned-Miller tehisintellekti kujutise õppimise kohta. "Loodetavasti see inimeste arv väheneb!"

Soovitan: