Võtmed kaasavõtmiseks
- Amazoni Alexa hääleassistent suudab häält kopeerida vaid ühe minuti heliga.
- Võite paluda Alexal lugeda lugu surnud vanema häälega.
- See on sama idee nagu sügavad võltsingud, mida kasutatakse ainult headuse saavutamiseks.
Amazon Alexa uusim trikk on õppida matkima surnud lähedase häält, et nad saaksid sinuga haua tagant rääkida.
Alexa vajab hääle veenvaks jäljendamiseks vaid minutit kõneheli. Amazon peab seda lohutavaks funktsiooniks, mis võimaldab teil lähedastega ühendust võtta, kuid see võib olla ka päris jube kogemus. Ja see näitab, kui lihtne on luua sügavat võltsheli, mis on piisav alt hea, et meid petta, isegi kui häält tunneme väga hästi.
"Amazon on kindlasti sisenenud üsna ainulaadsele ja veidrale territooriumile oma teatega, et Alexa saab peagi õppida ja seejärel kasutada surnud sugulaste häält, " ütles ettevõtte Restore Privacy privaatsusekspert Bill Mann. Lifewire meili teel. "Mõne inimese jaoks pole see üldse jube. Tegelikult võib see olla üsna liigutav."
Kummitus masinas
Oma iga-aastase re:MARS-konverentsi osana tutvustab Amazon seda funktsiooni lühikeses videos. Selles küsib laps Alex alt, kas vanaema võib talle edasi lugeda "Võlur Oz", mis on iga lapse lemmikpeateos, mis on avalik-õiguslik. Ja see on väga liigutav hetk. Raske on mitte tunda inimlikke emotsioone, kui vanaema hakkab lugema.
"Inimesed võitlevad surelikkusega, eriti lääne kultuuris. Oleme sajandeid püüdnud leida viise surnute mälestuseks jäädvustamiseks, alates surimaskidest, juuksesalkudest ja lõpetades vanade fotode ja vanade filmide vaatamisega, " Andrew Selepak, Florida ülikooli sotsiaalmeediaprofessor, rääkis Lifewire'ile e-posti teel. "Deepfakes kasutab surnud lähedase uue surimaski loomiseks uusimat tehnoloogiat. Kuid olenev alt inimese vaatenurgast on see jube või on viis armastatud inimese mälestuseks ja temast kinni hoidmiseks pärast tema surma?"
Kuid memento mori võib olla nii lohutav kui ka jube. Pereliikme sõber on surnud, kuid siiski kuulete teda rääkimas. See ei aita, et Alexal on veider ja mõnikord hirmutav käitumine. 2018. aastal, kui NYT arvamuskolumnist Farhad Manjoo voodisse läks, hakkas tema Amazon Echo nutma nagu õudusfilmi unenäos karjuv laps.
Varsti pärast seda tunnistas Amazon, et Alexa naeris mõnikord valjusti, mis koos teismeliste ja keldritega on õudusfilm 101.
Võib vaid imestada, kuidas te end tunneksite, kui Alexa teeks samad nipid vanaema häälega.
Deep Fake
Näiline kergus, millega Alexa häält jäljendama õpib, viib meid häälte kloonimise alatumate kasutusviisideni: sügavad võltsingud.
"Sügavvõltsheli pole uus, isegi kui seda vähe mõistetakse ja vähetuntud. Tehnoloogia on olnud juba aastaid saadaval, et luua tehisintellekti ja sügava õppimisega inimese hääl, kasutades suhteliselt vähe tegelikku heli, " ütleb Selepak. "Selline tehnoloogia võib olla ka ohtlik ja hävitav. Häiritud inimene võib taasluua surnud endise poiss-sõbra või tüdruksõbra hääle ja kasutada uut heli, et öelda vihkavaid ja haiget tekitavaid asju."
See on just Alexa kontekstis. Sügav võltsheli võib sellest palju kaugemale minna, veendes inimesi, et prominentsed poliitikud usuvad näiteks asju, mida nad ei usu. Kuid teisest küljest, mida rohkem me nende sügavate võltsingutega – võib-olla nende Alexa häälte näol – harjume, seda enam suhtume umbusklikumatesse võltsingutesse. Arvestades, kui lihtne on valesid Facebookis levitada, võib-olla mitte.
Amazon pole öelnud, kas see funktsioon tuleb Alexasse või on see lihts alt tehnoloogia demo. Ma natuke loodan, et teeb. Tehnika on oma parimal tasemel siis, kui seda sellisel humanistlikul viisil kasutatakse, ja kuigi lihtne reaktsioon on seda jubedaks nimetada, nagu Selepak ütleb, ei erine see tegelikult kuigi palju vanade videote vaatamisest või salvestatud kõnepostiteadete kuulamisest, nagu tegelane lais alt kirjutatud telesaates.
Ja kui sügavate võltsingute tehnoloogia on kergesti kättesaadav, siis miks mitte kasutada seda enda lohutamiseks?