Kuidas AI saaks jälgida oma ohtlikke järglasi

Sisukord:

Kuidas AI saaks jälgida oma ohtlikke järglasi
Kuidas AI saaks jälgida oma ohtlikke järglasi
Anonim

Võtmed kaasavõtmiseks

  • Uus dokument väidab, et tehisintellekt võib määrata, millised uurimisprojektid võivad vajada rohkem reguleerimist kui teised.
  • See on osa kasvavatest püüdlustest välja selgitada, milline AI võib olla ohtlik.
  • Üks ekspert ütleb, et tehisintellekti tõeline oht on see, et see võib muuta inimesed tummaks.

Image
Image

Tehisintellekt (AI) pakub palju eeliseid, kuid ka mõningaid potentsiaalseid ohte. Ja nüüd on teadlased pakkunud välja meetodi, kuidas oma arvutipõhisel loomingul silma peal hoida.

Rahvusvaheline meeskond ütleb uues dokumendis, et tehisintellekt suudab kindlaks teha, millist tüüpi uurimisprojektid võivad vajada rohkem reguleerimist kui teised. Teadlased kasutasid mudelit, mis ühendab bioloogia ja matemaatika mõisteid ning on osa kasvavatest püüdlustest välja selgitada, milline AI võib olla ohtlik.

"Muidugi, kuigi tehisintellekti "ulmeline" ohtlik kasutamine võib esile kerkida, kui me nii otsustame […], ei tee tehisintellekt ohtlikuks mitte AI ise, vaid [kuidas me seda kasutame], " Thierry Rayna, ütles Prantsusmaal École Polytechnique'i osakonna Technology for Change õppetooli juhataja Lifewire'ile meiliintervjuus. "AI rakendamine võib olla kas pädevust tõstev (näiteks tugevdab inimese/töötaja oskuste ja teadmiste asjakohasust) või pädevust hävitav, st tehisintellekt muudab olemasolevad oskused ja teadmised vähem kasulikuks või vananenuks."

Vahelehtede hoidmine

Hiljuti avaldatud artikli autorid kirjutasid postituses, et nad ehitasid mudeli hüpoteetiliste tehisintellektivõistluste simuleerimiseks. Nad käitasid simulatsiooni sadu kordi, et püüda ennustada, kuidas reaalses maailmas toimuvad AI-võistlused võiksid toimida.

"Muutuja, mille me pidasime eriti oluliseks, oli võistluse "pikkus" - aeg, mis meie simuleeritud võistlustel kulus eesmärgi (funktsionaalse tehisintellekti toote) saavutamiseks, " kirjutasid teadlased. "Kui tehisintellekti võistlused saavutasid oma eesmärgi kiiresti, avastasime, et konkurendid, kelle jaoks olime kodeerinud ohutusabinõusid alati tähelepanuta jätma, võitsid alati."

Seevastu leidsid teadlased, et pikaajalised tehisintellektiprojektid ei olnud nii ohtlikud, kuna võitjad ei olnud alati need, kes jätsid ohutuse tähelepanuta. "Arvestades neid leide, on oluline, et reguleerijad määraksid kindlaks, kui kaua erinevad AI rassid tõenäoliselt kestavad, kohaldades erinevaid eeskirju, mis põhinevad nende eeldataval ajakaval," kirjutasid nad. "Meie tulemused näitavad, et üks reegel kõigi tehisintellekti võistluste jaoks – sprintidest maratonideni – viib mõne tulemuseni, mis pole kaugeltki ideaalne."

Tehisintellektiga konsulteeriva ettevõtte Coda Strategy tegevdirektor David Zhao ütles Lifewire'ile antud meiliintervjuus, et ohtliku tehisintellekti tuvastamine võib olla keeruline. Väljakutsed seisnevad selles, et tehisintellekti kaasaegsed lähenemisviisid kasutavad sügavat õppimist.

"Me teame, et süvaõpe annab paremaid tulemusi paljudel kasutusjuhtudel, nagu pildituvastus või kõnetuvastus," ütles Zhao. "Inimestel on aga võimatu aru saada, kuidas süvaõppe algoritm töötab ja kuidas see oma väljundit toodab. Seetõttu on raske öelda, kas häid tulemusi andev tehisintellekt on ohtlik, sest inimestel on võimatu aru saada, mis toimub."

Tarkvara võib olla "ohtlik", kui seda kasutatakse kriitilistes süsteemides, mille haavatavused võivad halvad tegijad ära kasutada või anda valesid tulemusi, ütles AI-firma MixMode strateegiadirektor Matt Shea meili teel. Ta lisas, et ebaturvaline tehisintellekt võib samuti põhjustada tulemuste ebaõiget klassifitseerimist, andmete kadumist, majanduslikku mõju või füüsilist kahju.

"Traditsioonilise tarkvaraga kodeerivad arendajad algoritme, mida inimene saab uurida, et välja selgitada, kuidas lähtekoodi vaadates haavatavust ühendada või viga parandada, " ütles Shea."AI puhul luuakse aga suurem osa loogikast andmetest endist, mis on kodeeritud andmestruktuuridesse, nagu närvivõrgud jms. Selle tulemuseks on süsteemid, mis on "mustad kastid", mida ei saa turvaaukude leidmiseks ja parandamiseks uurida. nagu tavaline tarkvara."

Ohud ees?

Kuigi sellistes filmides nagu "Terminaator" on tehisintellekti kujutatud kurja jõuna, mis kavatseb inimkonda hävitada, võivad tõelised ohud olla proosalisemad, väidavad eksperdid. Näiteks Rayna oletab, et tehisintellekt võib meid lollimaks muuta.

"See võib jätta inimesed ilma oma aju treenimisest ja teadmiste arendamisest," ütles ta. „Kuidas saada riskikapitali eksperdiks, kui te ei kuluta suuremat osa ajast idufirmade taotluste lugemisele? Mis veelgi hullem, AI on kurikuuls alt "must kast" ja vähe seletatav. Kui te ei tea, miks konkreetne tehisintellekti otsus vastu võeti, on sellest väga vähe õppida, nagu ka Segwayga staadionil ringi sõites ei saa te ekspertjooksjaks.”

Raske on öelda, kas häid tulemusi andev tehisintellekt on ohtlik, sest inimestel on võimatu aru saada, mis toimub.

Võib-olla on tehisintellektist tulenev kõige otsesem oht võimalus, et see võib anda kallutatud tulemusi, ütles AI õiguslikke tagajärgi käsitlev jurist Lyle Solomon meiliintervjuus.

"AI võib aidata süvendada ühiskondlikke lõhesid. AI põhineb peamiselt inimestelt kogutud andmetel," lisas Solomon. "[Kuid] vaatamata suurele hulgale andmetele sisaldab see minimaalseid alamhulki ega sisaldaks seda, mida kõik arvavad. Seega panevad kommentaaridest, avalikest sõnumitest, arvustustest jne kogutud andmed, millel on loomupärased eelarvamused, võimendada diskrimineerimist ja vihkamist."

Soovitan: