Miks emotsioonide lugemise tarkvara võib teie privaatsust rikkuda?

Sisukord:

Miks emotsioonide lugemise tarkvara võib teie privaatsust rikkuda?
Miks emotsioonide lugemise tarkvara võib teie privaatsust rikkuda?
Anonim

Võtmed kaasavõtmiseks

  • Zoom teatas väidetav alt, et kasutab tehisintellekti kasutaja meeleolu või seotuse taseme hindamiseks.
  • Inimõiguste rühmad paluvad Zoomil oma plaan privaatsus- ja andmeturbeprobleemide tõttu ümber mõelda.
  • Mõned ettevõtted kasutavad intervjuude ajal ka emotsioonide tuvastamise tarkvara, et hinnata, kas kasutaja on tähelepanelik.
Image
Image

Tehtisintellekti (AI) kasvav kasutamine inimeste emotsioonide jälgimiseks tekitab muret privaatsusega.

Inimõiguste organisatsioonid paluvad Zoomil aeglustada plaani võtta oma videokonverentsitarkvarasse emotsioone analüüsiv tehisintellekt. Ettevõte on väidetav alt öelnud, et kasutab AI-d, et hinnata kasutaja meeleolu või seotuse taset.

"Eksperdid tunnistavad, et emotsioonide analüüs ei tööta," kirjutas inimõiguste rühmituste, sealhulgas ACLU, konsortsium Zoomile saadetud kirjas. "Näoilmed on sageli lahutatud nende all olevatest emotsioonidest ja uuringud on leidnud, et isegi inimesed ei suuda mõnikord teiste emotsioone täpselt lugeda ega mõõta. Selle tööriista väljatöötamine lisab pseudoteadustele usaldusväärsust ja seab teie maine ohtu."

Zoom ei vastanud kohe Lifewire'i kommentaaritaotlusele.

Emotsioonide jälgimine

Protokolliartikli kohaselt kontrollib Zoom seiresüsteem nimega Q for Sales kasutajate kõneaja suhet, reageerimisaja viivitust ja sagedasi kõlarite vahetusi, et jälgida, kuivõrd see inimene on. Suum kasutaks neid andmeid skooride määramiseks vahemikus null kuni 100, kusjuures kõrgemad hinded näitavad suuremat seotust või sentimenti.

Inimõiguste rühmitused väidavad, et tarkvara võib puuetega inimesi või teatud rahvusest inimesi diskrimineerida, eeldades, et kõik kasutavad suhtlemiseks samu näoilmeid, häälemustreid ja kehakeelt. Rühmad viitavad ka sellele, et tarkvara võib olla andmeturbe risk.

Image
Image

"Sügav alt isiklike andmete kogumine võib muuta seda tehnoloogiat juurutava üksuse valitsusasutuste ja pahatahtlike häkkerite nuhkimise sihtmärgiks," seisab kirjas.

New Yorgi ülikooli arvutiteaduse ja inseneriteaduse professor Julia Stoyanovitš ütles Lifewire'ile antud meiliintervjuus, et on emotsioonide tuvastamise taga olevate väidete suhtes skeptiline.

"Ma ei saa aru, kuidas selline tehnoloogia toimib – inimeste emotsionaalne väljendus on väga individuaalne, väga kultuuriliselt sõltuv ja väga kontekstispetsiifiline," ütles Stojanovitš."Kuid mis võib-olla veelgi olulisem, ma ei saa aru, miks me tahame, et need tööriistad töötaksid. Teisisõnu oleksime veelgi rohkem hädas, kui need hästi töötaksid. Aga võib-olla peaksime enne riskidele mõtlemist veel rohkemgi hädas olema. küsige – mis on sellise tehnoloogia võimalikud eelised?"

Zoom ei ole ainus ettevõte, mis kasutab emotsioonide tuvastamise tarkvara. Privaatsus- ja turbekonsultatsioonifirma Kuma LLC privaatsuse vanemdirektor Theo Wills ütles Lifewire'ile e-posti teel, et intervjuude käigus kasutatakse emotsioonide tuvastamise tarkvara, et hinnata, kas kasutaja pöörab tähelepanu. Seda katsetatakse ka transporditööstuses, et jälgida, kas juhid tunduvad uimased, videoplatvormidel, et mõõta huvi ja kohandada soovitusi, ning õppetundides, et teha kindlaks, kas konkreetne õpetamismeetod on kaasahaarav.

Wills väitis, et poleemika emotsioonide jälgimise tarkvara ümber on pigem andmeeetika kui privaatsuse küsimus. Ta ütles, et see seisneb selles, et süsteem teeb reaalseid otsuseid ettekujutuste põhjal.

"Selle tehnoloogiaga eeldate nüüd põhjust, miks mul on eriline näoilme, kuid väljendi taga olev tõuge on väga erinev, tulenev alt näiteks sotsiaalsest või kultuurilisest kasvatusest, perekondlikust käitumisest, varasematest kogemustest või närvilisusest. hetkel," lisas Wills. "Algoritmi eeldusel põhinemine on oma olemuselt vigane ja potentsiaalselt diskrimineeriv. Paljud populatsioonid ei ole esindatud populatsioonis, millel algoritmid põhinevad, ja enne selle kasutamist tuleb asjakohane esitus seada prioriteediks."

Praktilised kaalutlused

Emotsioonide jälgimise tarkvara tõstatatud probleemid võivad olla nii praktilised kui ka teoreetilised. Suhetuure pakkuva tehisintellektipõhise rakenduse Ferret.ai kaasasutaja Matt Heisie ütles Lifewire'ile e-kirjas, et kasutajad peavad küsima, kus nägude analüüs tehakse ja milliseid andmeid talletatakse. Kas uuring tehakse kõnesalvestuste, pilves töödeldud või kohalikus seadmes?

Samuti küsis Heisie, kui algoritm õpib, milliseid andmeid see inimese näo või liigutuste kohta kogub, mida saaks potentsiaalselt algoritmist lahutada ja kasutada kellegi biomeetriliste andmete taasloomiseks? Kas ettevõte salvestab hetktõmmiseid, et kontrollida või kinnitada algoritmi õpetusi, ja kas kasutajat on teavitatud nendest uutest tuletatud andmetest või salvestatud piltidest, mida tema kõnede käigus võidakse koguda?

"Need on kõik probleemid, mida paljud ettevõtted on lahendanud, kuid on ka ettevõtteid, mida on raputanud skandaal, kui selgub, et nad pole seda õigesti teinud," ütles Heisie. "Facebook on kõige olulisem juhtum ettevõttest, kes tühistas oma näotuvastusplatvormi seoses murega kasutajate privaatsuse pärast. Emaettevõte Meta kasutab nüüd mõnes jurisdiktsioonis, nagu Illinois ja Texas, Instagramist AR-funktsioone biomeetrilisi andmeid käsitlevate privaatsusseaduste tõttu."

Soovitan: