Apple News

Apple kaže da tehnologija NeuralHash-a na koju utječu 'Hash Collisions' nije verzija koja se koristi za otkrivanje CSAM-a

Srijeda, 18. kolovoza 2021., 14:13 PDT, Juli Clover

Razvojni programer Asuhariet Yvgar jutros je rekao da je reverzno konstruirao algoritam NeuralHash koji Apple koristi za otkrivanje materijala o seksualnom zlostavljanju djece (CSAM) u iCloud fotografije , objavljivanje dokaza na GitHub-u i detalji na Redditu .





Sigurnosna značajka za djecu Plava
Yvgar je rekao da je obrnutim inženjeringom NeuralHash algoritam iz iOS-a 14.3, gdje je kod bio skriven, te ga je ponovno izgradio u Pythonu. Nakon što je učitao svoje nalaze, drugi korisnik je to mogao stvoriti sudar , problem u kojem dvije nepodudarne slike dijele isti hash. Istraživači sigurnosti upozorili su na ovu mogućnost jer bi mogućnost sudara mogla omogućiti iskorištavanje CSAM sustava.

U izjavi za matična ploča , Apple je rekao da verzija NeuralHasha koju je Yvgar reverzno projektirao nije ista kao konačna implementacija koja će se koristiti sa CSAM sustavom. Apple je također rekao da je algoritam učinio javno dostupnim istraživačima sigurnosti za provjeru, ali postoji drugi privatni algoritam na strani poslužitelja koji provjerava CSAM podudaranje nakon što je prag premašen, zajedno s ljudskom provjerom.



Apple je međutim rekao matičnoj ploči u e-poruci da je ta verzija koju su analizirali korisnici na GitHubu generička verzija, a ne konačna verzija koja će se koristiti za iCloud Photos CSAM detekciju. Apple je rekao da je algoritam također obznanio javnosti.

'Algoritam NeuralHash [... je] uključen kao dio koda potpisanog operacijskog sustava [i] istraživači sigurnosti mogu provjeriti da se ponaša kako je opisano', stoji u jednom od Appleovih dijelova dokumentacije. Apple je također rekao da će nakon što korisnik prijeđe prag od 30 podudaranja, drugi nejavni algoritam koji radi na Appleovim poslužiteljima provjeriti rezultate.

Matthew Green, koji predaje kriptografiju na Sveučilištu Johns Hopkins i koji je bio glasni kritičar Appleovog CSAM sustava, rekao je matična ploča da ako kolizije 'postoje za ovu funkciju', onda on očekuje da će 'postojati u sustavu koji Apple na kraju aktivira.'

'Naravno, moguće je da će ponovno pokrenuti hash funkciju prije nego što se implementiraju', rekao je. 'Ali kao dokaz koncepta, ovo je definitivno valjano', rekao je o informacijama podijeljenim na GitHubu.

Međutim, zbog ljudskog elementa, rekao je drugi istraživač, Nicholas Weaver matična ploča Sve što ljudi mogu učiniti s manipuliranjem ne-CSAM hashovima u CSAM jest 'nervirati Appleov odgovorni tim sa smeće slikama dok ne implementiraju filtar' kako bi se riješili lažnih pozitivnih rezultata. Zapravo, zavaravanje Appleovog sustava također bi zahtijevalo pristup hashovima koje pruža NCMEC i zahtijevalo bi proizvodnju preko 30 sudarajućih slika, a krajnji rezultat ne bi zavarao ljudski nadzor.

Apple koristi svoj NeuralHash sustav za uparivanje baze podataka hashova slika koje pružaju agencije poput Nacionalnog centra za nestalu djecu (NCMEC) sa slikama na korisničkim uređajima za traženje CSAM-a. Sustav je dizajniran za proizvodnju točnih podudaranja i Apple kaže da postoji jedna od trilijuna šanse da se iCloud račun može slučajno označiti.

Apple planira implementirati NeuralHash CSAM sustav u iOS i iPad 15 kao dio paketa sigurnosnih značajki za djecu, i to je bila vrlo kontroverzna odluka s Appleom koji je primao kritike od kupaca i zagovornika privatnosti. Apple pokušava uvjeriti kupce i istraživače sigurnosti o implementaciji sustava s dodatna dokumentacija i intervjui s izvršnim direktorima .