Apple News

Apple objavljuje FAQ kako bi riješio zabrinutost oko CSAM detekcije i skeniranja poruka

Ponedjeljak, 9. kolovoza 2021. 2:50 PDT, Tim Hardwick

Apple je objavio FAQ pod nazivom 'Proširena zaštita za djecu' koji ima za cilj ublažiti zabrinutost korisnika u vezi s privatnošću u vezi s novim otkrivanjem CSAM-a u iCloud fotografije i sigurnost komunikacije za Messages značajke koje tvrtka najavljen prošli tjedan .





privatnost jabuke
'Otkad smo najavili ove značajke, mnogi dionici, uključujući organizacije za zaštitu privatnosti i organizacije za sigurnost djece, izrazili su svoju podršku ovom novom rješenju, a neki su nam se javili s pitanjima', stoji u FAQ. 'Ovaj dokument služi rješavanju ovih pitanja i pruža više jasnoće i transparentnosti u procesu.'

Neke rasprave zamaglile su razliku između te dvije značajke, a Apple se jako trudi dokument kako bi ih razlikovali, objašnjavajući da sigurnost komunikacije u Porukama 'radi samo na slikama poslanim ili primljenim u aplikaciji Poruke za dječje račune postavljene u Family Sharing', dok otkrivanje CSAM-a u ‌iCloud fotografijama‌ 'utječe samo na korisnike koji su odlučili koristiti ‌iCloud fotografije‌ za pohranu njihovih fotografija... Nema utjecaja na druge podatke na uređaju.'



Iz FAQ:

kako podijeliti fotografiju kontakta na iPhoneu

Ove dvije značajke nisu iste i ne koriste istu tehnologiju.

Sigurnost komunikacije u Porukama osmišljena je kako bi roditeljima i djeci pružila dodatne alate koji će zaštititi svoju djecu od slanja i primanja seksualno eksplicitnih slika u aplikaciji Poruke. Radi samo na slikama poslanim ili primljenim u aplikaciji Poruke za dječje račune postavljene u Family Sharing. Analizira slike na uređaju i tako ne mijenja jamstva privatnosti poruka. Kada dječji račun šalje ili prima seksualno eksplicitne slike, fotografija će biti zamućena, a dijete će biti upozoreno, predstavljeni mu korisni resursi i uvjeravanje da je u redu ako ne želi pogledati ili poslati fotografiju. Kao dodatnu mjeru opreza, maloj djeci se također može reći da će njihovi roditelji, kako bi bili sigurni, dobiti poruku ako je pogledaju.

Druga značajka, otkrivanje CSAM-a u iCloud fotografijama, osmišljena je kako bi CSAM isključena iz iCloud fotografija bez pružanja informacija Appleu o bilo kojim fotografijama osim onih koje odgovaraju poznatim CSAM slikama. CSAM slike nezakonito je posjedovati u većini zemalja, uključujući Sjedinjene Države. Ova značajka utječe samo na korisnike koji su odlučili koristiti iCloud fotografije za pohranu svojih fotografija. To ne utječe na korisnike koji nisu odlučili koristiti iCloud fotografije. Nema utjecaja na druge podatke na uređaju. Ova se značajka ne odnosi na Poruke.

Ostatak dokumenta podijeljen je u tri odjeljka (podebljano ispod), s odgovorima na sljedeća često postavljana pitanja:

rade li apple airpods sa samsung telefonima

apple watch se protiv serije 4
    Sigurnost komunikacije u porukama
  • Tko može koristiti sigurnost komunikacije u Porukama?
  • Znači li to da će Messages dijeliti informacije s Appleom ili policijom?
  • Razbija li ovo end-to-end enkripciju u Porukama?
  • Spriječava li ova značajka djecu u nasilnim domovima da potraže pomoć?
  • Hoće li roditelji biti obaviješteni, a da djeca ne budu upozorena i nemaju mogućnost izbora?
  • CSAM detekcija
  • Znači li to da će Apple skenirati sve fotografije pohranjene na mom iPhone ?
  • Hoće li ovo preuzeti CSAM slike na moj ‌iPhone‌ usporediti s mojim fotografijama?
  • Zašto Apple to sada radi?
  • Sigurnost za otkrivanje CSAM-a za iCloud fotografije
  • Može li CSAM sustav otkrivanja u ‌iCloud fotografijama‌ koristiti za otkrivanje stvari koje nisu CSAM?
  • Mogu li vlade prisiliti Apple da doda slike koje nisu CSAM na hash listu?
  • Mogu li se slike koje nisu CSAM 'ubaciti' u sustav za označavanje računa za stvari koje nisu CSAM?
  • Hoće li CSAM detekcija u ‌iCloud fotografijama‌ lažno označiti nevine ljude policiji?

Zainteresirani čitatelji trebali bi pogledati dokument za Appleove potpune odgovore na ova pitanja. Međutim, vrijedno je napomenuti da na pitanja na koja se može odgovoriti binarnim da/ne, Apple sva počinje s 'Ne' s izuzetkom sljedeća tri pitanja iz odjeljka pod naslovom 'Sigurnost za otkrivanje CSAM-a za ‌ iCloud fotografije‌:'

Može li se sustav otkrivanja CSAM-a u iCloud fotografijama koristiti za otkrivanje stvari koje nisu CSAM?
Naš je proces osmišljen kako bi se to spriječilo. Otkrivanje CSAM-a za iCloud fotografije izgrađeno je tako da sustav radi samo s hashovima CSAM slika koje pružaju NCMEC i druge organizacije za sigurnost djece. Ovaj skup hashova slika temelji se na slikama koje su organizacije za sigurnost djece prikupile i potvrdile da su CSAM. Ne postoji automatizirano prijavljivanje policiji, a Apple provodi ljudski pregled prije nego što podnese izvješće NCMEC-u. Kao rezultat toga, sustav je dizajniran samo za prijavljivanje fotografija koje su poznate kao CSAM u iCloud fotografijama. U većini zemalja, uključujući Sjedinjene Države, jednostavno posjedovanje ovih slika je zločin i Apple je dužan prijaviti sve slučajeve za koje saznamo nadležnim tijelima.

Mogu li vlade prisiliti Apple da doda slike koje nisu CSAM na hash listu?
Apple će odbiti sve takve zahtjeve. Appleova sposobnost otkrivanja CSAM-a izgrađena je isključivo za otkrivanje poznatih CSAM slika pohranjenih u iCloud fotografijama koje su identificirali stručnjaci NCMEC-a i drugih grupa za sigurnost djece. Suočili smo se sa zahtjevima za izradom i implementacijom vladinih promjena koje degradiraju privatnost korisnika i ranije smo te zahtjeve uporno odbijali. I ubuduće ćemo ih odbijati. Budimo jasni, ova je tehnologija ograničena na otkrivanje CSAM-a pohranjenih u iCloudu i nećemo udovoljiti zahtjevu nijedne vlade da je proširi. Nadalje, Apple provodi ljudski pregled prije nego što podnese izvješće NCMEC-u. U slučaju kada sustav označi fotografije koje se ne podudaraju s poznatim CSAM slikama, račun neće biti onemogućen i izvješće se neće podnijeti NCMEC-u.

Mogu li se slike koje nisu CSAM 'ubaciti' u sustav za označavanje računa za stvari koje nisu CSAM?
Naš je proces osmišljen kako bi se to spriječilo. Skup hashova slika koji se koristi za uparivanje je iz poznatih, postojećih slika CSAM-a koje su nabavile i potvrdile organizacije za sigurnost djece. Apple ne dodaje skupu poznatih hashova CSAM slika. Isti skup hashova pohranjen je u operativnom sustavu svakog korisnika iPhonea i iPada, tako da prema našem dizajnu ciljani napadi samo na određene pojedince nisu mogući. Konačno, ne postoji automatizirano izvješćivanje policiji, a Apple provodi ljudski pregled prije nego što podnese izvješće NCMEC-u. U malo vjerojatnom slučaju da sustav označi slike koje se ne podudaraju s poznatim CSAM slikama, račun neće biti onemogućen i izvješće se neće podnijeti NCMEC-u.

Apple se suočio sa značajnim kritikama od strane zagovornika privatnosti, istraživača sigurnosti, stručnjaka za kriptografiju, akademika i drugih zbog svoje odluke da implementira tehnologiju s izdavanjem iOS 15 i iPad 15 , očekuje se u rujnu.

To je rezultiralo otvoreno pismo kritizirajući Appleov plan za skeniranje iPhonea za CSAM u ‌iCloud fotografijama‌ i eksplicitne slike u dječjim porukama, koje je do trenutka pisanja skupilo preko 5500 potpisa. Apple je također dobio kritike od WhatsAppa u vlasništvu Facebooka, čiji je šef Will Cathcart nazvao to 'pogrešan pristup i zastoj privatnosti ljudi u cijelom svijetu.' Izvršni direktor Epic Gamesa Tim Sweeney također napao odluku, tvrdeći da se 'naporno trudio' vidjeti taj potez s Appleovog stajališta, ali je zaključio da je, 'neizbježno, ovo državni špijunski softver koji je instalirao Apple na temelju presumpcije krivnje.'

'Bez obzira koliko dobronamjerno, Apple ovim pokreće masovni nadzor cijelom svijetu' rekao je istaknuti zviždač Edward Snowden, dodajući da 'ako mogu skenirati dječju pornografiju danas, mogu skenirati bilo što sutra.' Također i neprofitna zaklada Electronic Frontier Foundation kritizirao Appleovi planovi, u kojima se navodi da je 'čak i temeljito dokumentirana, pomno promišljena stražnja vrata s uskim opsegom još uvijek backdoor'.

kako postaviti pojedinačne tonove teksta
Oznake: Apple privatnost , Apple sigurnosne značajke za djecu