Pärast paljusid kriitikute ja kasutajate tagasilööke lükkab Apple laste väärkohtlemise vastaste meetmete võtmisega edasi.
Augustis teatas tehnoloogiahiiglane algselt uuest poliitikast, mis kasutab tehnoloogiat võimalike laste väärkohtlemise piltide tuvastamiseks iCloudis ja Messagesis, kuid sellele järgnesid mured. Eksperdid hoiatasid, et kuigi Apple lubas kasutajate privaatsust, seab tehnoloogia lõppkokkuvõttes ohtu kõik Apple'i kasutajad.
Reedel teatas Apple, et täiustuste tegemiseks ja kasutaja privaatsuse täielikuks tagamiseks lükkab see tehnoloogia kasutuselevõtu täielikult edasi.
"Klientidelt, kaitserühmadelt, teadlastelt ja teistelt saadud tagasiside põhjal oleme otsustanud kulutada järgnevatel kuudel lisaaega, et koguda sisendit ja teha täiustusi enne nende kriitilise tähtsusega laste turvafunktsioonide avaldamist, " ütles Apple ajakohastatud avaldus oma veebisaidil.
Laste seksuaalse kuritarvitamise materjali tuvastamise tehnoloogia pidi iOS 15 versioonis saadaval olema selle aasta lõpus, kuid praegu pole selge, millal ja kas see funktsioon debüteeritakse.
Uus tehnoloogia toimiks kahel viisil: esiteks skannib kujutise enne selle iCloudi varundamist. Kui see pilt vastab CSAM-i kriteeriumidele, saab Apple need andmed. Teine osa tehnoloogiast kasutab masinõpet, et tuvastada ja hägustada seksuaalselt vulgaarseid pilte, mida lapsed saavad sõnumite kaudu.
Kuid pärast uue poliitika väljakuulutamist ütlesid privaatsuskaitsjad ja rühmitused, et Apple avab sisuliselt tagaukse, mida halvad näitlejad võivad kuritarvitada.
Nende probleemide lahendamiseks avaldas Apple varsti pärast CSAM-tehnoloogia väljakuulutamist KKK lehe. Apple selgitas, et tehnoloogia ei skanniks kõiki seadmesse salvestatud fotosid, ei riku rakenduses Messages täielikku krüptimist ega märgita süütuid inimesi õiguskaitseorganitele valesti.