Miks tekitab uus profiilitarkvara privaatsusprobleeme?

Miks tekitab uus profiilitarkvara privaatsusprobleeme?
Miks tekitab uus profiilitarkvara privaatsusprobleeme?
Anonim

Võtmed kaasavõtmiseks

  • Tarkvara, mis kasutab tehisintellekti inimeste profiilide tegemiseks, tekitab muret privaatsusega.
  • Cryfe ühendab käitumisanalüüsi tehnikad tehisintellektiga.
  • Hiina ettevõtet Alibaba kritiseeriti hiljuti pärast seda, kui väideti, et selle tarkvara võib tuvastada uiguurid ja muud etnilised vähemused.
Image
Image

Uus tehisintellekti toel töötav tarkvara, mis on mõeldud tööandjatele oma töötajate profiilide kujundamiseks, tekitab privaatsusprobleeme.

Üks uus tarkvaraplatvorm nimega Cryfe ühendab käitumisanalüüsi tehnikad tehisintellektiga. Arendaja väidab, et väikseid vihjeid analüüsides võib tarkvara intervjuude ajal paljastada inimeste kavatsused. Kuid mõned vaatlejad väidavad, et Cryfe ja muud tüüpi käitumist analüüsivad tarkvara võivad rikkuda privaatsust.

"Ettevõtted toetuvad profiili koostamisel üha enam tehisintellektile," ütles tehisintellekti ekspert Vaclav Vincale meiliintervjuus. "Kuid isegi inimesed, kes neid algoritme kodeerivad, veel vähem klienditoe isik, kellega telefoni teel ühendust võtate, ei suutnud teile öelda, miks nad mingit soovitust annavad."

Rohkem kui sõnad

Cryfe töötas välja Šveitsi ettevõte, mille töötajaid FBI koolitas profileerimistehnikate alal. "Cryfe ei kuula igasuguses inimestevahelises suhtluses mitte ainult sõnu, vaid tuvastab ka teisi inimese poolt väljastatud signaale, nagu emotsioonid, mikroväljendid ja kõik žestid," ütles Cryfe'i asutaja Caroline Matteucci meiliintervjuus.

"Näiteks värbamise ajal võimaldab see meil minna ja otsida oma vestluskaaslase tegelikku isiksust."

Matteucci ütles, et kasutajate privaatsus on kaitstud, kuna ettevõte on oma tarkvara toimimise osas läbipaistev. "Kasutaja peab enne platvormi kasutamist nõustuma üldtingimustega," ütles ta.

"Seal on täpsustatud, et kasutaja ei tohi mingil juhul intervjuud analüüsimiseks esitada ilma vestluskaaslase kirjaliku nõusolekuta."

Cryfe ei ole ainus tehisintellektil põhinev tarkvara, mille eesmärk on analüüsida inimeste käitumist. Seal on ka Humantic, mis väidab, et analüüsib tarbijate käitumist. "Humanticu teedmurdev tehnoloogia ennustab kõigi käitumist, ilma et neil oleks kunagi vaja isiksusetesti teha," seisab ettevõtte veebisaidil.

Image
Image

Ettevõte väidab, et kasutab tehisintellekti taotlejate psühholoogiliste profiilide loomiseks nende sõnade põhjal, mida nad kasutavad CV-des, kaaskirjades, LinkedIni profiilides ja mis tahes muus tekstiosas, mida nad esitavad.

Käitumistarkvara on minevikus kokku puutunud juriidiliste väljakutsetega. 2019. aastal teatas Bloombergi seadus, et võrdsete töövõimaluste komisjon (EEOC) uuris väidetav alt ebaseadusliku diskrimineerimise juhtumeid algoritmipõhise personaliga seotud otsuste tõttu.

"See kõik tuleb välja töötada, sest värbamise tulevik on AI," ütles advokaat Bradford Newman Bloombergile.

Mõned vaatlejad kahtlevad ettevõtete käitumise jälgimise tarkvara kasutamises, kuna see pole piisav alt täpne. Professionaalsete teenuste ettevõtte EY ülemaailmne tehisintellekti juht Nigel Duffy ütles intervjuus InformationWeekile, et teda häirib tarkvara, mis kasutab sotsiaalmeedia viktoriinid ja mõjutab tuvastamist.

"Ma arvan, et afektide tuvastamise potentsiaali kohta on tõesti mõjuvat kirjandust, kuid ma saan aru, et viis, mida sageli rakendatakse, on üsna naiivne," ütles ta.

"Inimesed teevad järeldusi, et teadus tegelikult ei toeta [näiteks] otsustamist, et keegi on potentsiaalselt hea töötaja, kuna nad naeratavad palju või otsustavad, et kellelegi meeldivad teie tooted, kuna nad naeratavad palju"

Hiina ettevõtted väidetav alt profiili vähemused

Käitumise jälgimisel võivad olla ka kurjemad eesmärgid, väidavad mõned inimõigusorganisatsioonid. Hiinas tekitas veebituru hiiglane Alibaba hiljuti segadust pärast seda, kui väidetav alt väitis, et selle tarkvara suudab tuvastada uigure ja muid etnilisi vähemusi.

The New York Times teatas, et ettevõtte pilvandmetöötlusettevõttel oli tarkvara, mis skannib pilte ja videoid.

Kuid isegi inimesed, kes neid algoritme kodeerivad, ei suutnud teile öelda, miks nad mingit soovitust annavad.

The Washington Post teatas hiljuti ka, et Huawei, teine Hiina tehnoloogiaettevõte, katsetas tarkvara, mis võis teavitada õiguskaitseorganitest, kui selle valvekaamerad tuvastasid uiguuride näod.

A 2018. aasta Huawei patenditaotluses väideti, et näotuvastustehnoloogias on jalakäijate atribuutide tuvastamine väga oluline."Sihtobjekti atribuudid võivad olla sugu (mees, naine), vanus (nt teismelised, keskealised, vanad) [või] rass (han, uiguurid), " ütles rakendus.

Huawei pressiesindaja ütles CNN Businessile, et etnilise kuuluvuse tuvastamise funktsioon ei peaks "ei oleks kunagi saanud rakenduse osaks".

Tehtisintellekti kasvav kasutamine tohutute andmehulkade sorteerimiseks tekitab kindlasti privaatsusprobleeme. Kui järgmisel korral tööintervjuule lähete, ei pruugi te kunagi teada, kes või mis teid analüüsib.

Soovitan: