Võtmed kaasavõtmiseks
- Kuna süvavõltsinguid on lihtsam teha, on uued ja täiustatud viisid nende tuvastamiseks muutunud prioriteediks.
- Facebooki sügavvõltsingu tuvastamise tehnoloogia kasutab pöördmasinõpet, et teha kindlaks, kas video on sügavvõltsing või mitte.
- Eksperdid ütlevad, et plokiahela tehnoloogia kasutamine oleks parim viis näha, kas video on ehtne või mitte, kuna meetod põhineb kontekstiandmetel.
Facebook on kindel oma masinõppemudelis, et võidelda sügavate võltsingute vastu, kuid ekspertide sõnul ei päästa masinõpe üksinda meid sügavate võltsingute petmise eest.
Ettevõtted nagu Facebook, Microsoft ja Google töötavad kõik selle nimel, et võidelda veebis ja sotsiaalvõrgustikes levivate süvavõltsingute vastu. Kuigi meetodid on erinevad, on nende valevideote tuvastamiseks üks võimalik lollikindel meetod: plokiahelad.
„[Blockchains] annab teile lihts alt palju potentsiaali sügavvõltsimise kinnitamiseks viisil, mis on parim valideerimisvorm, mida ma näen,“ütles Stephen Wolfram, Wolfram Researchi asutaja ja tegevjuht ning raamatu A New Kind of autor. Science, ütles Lifewire'ile telefoni teel.
Facebooki Deepfake-Spotting Tech
Deepfake tech on viimastel aastatel kiiresti kasvanud. Eksitavad videod kasutavad masinõppemeetodeid, et teha näiteks kellegi näo kandmine teise inimese kehale, muuta taustatingimusi, võlts huulte sünkroonimine ja palju muud. Need ulatuvad kahjututest paroodiatest kuni kuulsuste või avaliku elu tegelaste panemiseni ütlema või tegema midagi, mida nad pole teinud.
Eksperdid väidavad, et tehnoloogia areneb kiiresti ja sügavad võltsingud muutuvad veenvamaks (ja neid on lihtsam luua), kui tehnoloogia muutub laiem alt kättesaadavaks ja uuenduslikumaks.
Facebook andis koostöös Michigani osariigi ülikooliga hiljuti põhjalikuma ülevaate oma süvavõltsingute tuvastamise tehnoloogiast. Sotsiaalvõrgustik väidab, et tugineb pöördprojekteerimisele alates ühest tehisintellekti loodud kujutisest kuni selle tootmiseks kasutatud generatiivse mudelini.
Teadlased, kes töötasid Facebookiga, ütlesid, et meetod põhineb unikaalsete mustrite avastamisel sügava võltsimise genereerimiseks kasutatud tehisintellekti mudeli taga.
„Üldistades kujutise omistamise avatud tuvastusviisile, saame järeldada rohkem teavet generatiivse mudeli kohta, mida kasutatakse sügava võltsimise loomiseks, mis ületab äratundmise, et seda pole varem nähtud. Ja jälitades süvavõltsingute kollektsiooni mustrite sarnasusi, saame ka öelda, kas piltide seeria pärineb ühest allikast,”kirjutasid uurijad Xi Yin ja Tan Hassner Facebooki ajaveebi postituses selle sügavvõltsingute tuvastamise meetodi kohta.
Wolframi sõnul on mõistlik, et kasutaksite täiustatud tehisintellekti mudeli (deepfake) tuvastamiseks masinõpet. Siiski on alati ruumi tehnoloogiat petta.
„Ma ei ole üldse üllatunud, et [sügavate võltsingute tuvastamiseks] on olemas korralik masinõppe viis,” ütles Wolfram. "Ainus küsimus on selles, et kui pingutate piisav alt, kas saate selle ära petta? Olen kindel, et saate.”
Võitlus sügavvõltsingutega erineval viisil
Selle asemel ütles Wolfram, et tema arvates oleks plokiahela kasutamine teatud tüüpi süvavõltsingute täpseks tuvastamiseks parim valik. Tema arvamus plokiahela kasutamisest masinõppe asemel ulatub tagasi 2019. aastasse ja ta ütles, et lõppkokkuvõttes võib plokiahela lähenemisviis pakkuda meie süvavõltsinguprobleemile täpsemat lahendust.
"Ma eeldan, et piltide ja videote vaatajad suudavad regulaarselt kontrollida plokiahelate (ja "andmete triangulatsiooniarvutuste") suhtes sarnaselt sellega, kuidas veebibrauserid praegu turvasertifikaate kontrollivad," kirjutas Wolfram ajakirjas Scientific American avaldatud artiklis.
Kuna plokiahelad salvestavad andmed plokkidesse, mis seejärel kronoloogilises järjekorras aheldatakse, ja kuna detsentraliseeritud plokiahelad on muutumatud, on sisestatud andmed pöördumatud.
Ainus küsimus on selles, et kui pingutate piisav alt, kas saate selle ära petta? Olen kindel, et saate.
Wolfram selgitas, et video plokiahelasse panemisel näete selle filmimisaega, asukohta ja muud kontekstuaalset teavet, mis võimaldab teil aru saada, kas seda on mingil viisil muudetud.
"Üldiselt, kui teil on rohkem metaandmeid, mis pilti või videot kontekstualiseerivad, seda tõenäolisem alt saate seda öelda, " ütles ta. "Te ei saa plokiahelas aega võltsida."
Samas ütles Wolfram, et kasutatav meetod – kas see on masinõpe või plokiahela kasutamine – sõltub sügava võltsimise tüübist, mille eest üritate kaitsta (st video Kim Kardashiani kohta, kes ütleb midagi rumalat, või video poliitik teeb avalduse või ettepaneku).
„Plokiahela lähenemisviis kaitseb teatud tüüpi sügavate võltsingute eest, nagu masinõppega pilditöötlus kaitseb teatud tüüpi sügavate võltsingute eest,” ütles ta.
Paistab, et eelseisva sügava võltsveeuputusega võitlemisel on meie kõigi valvsus.