Apple Ziņas

Drošības pētnieki pauž trauksmi par Apple plāniem skenēt iCloud attēlus, taču prakse jau ir plaši izplatīta

Ceturtdiena, 2021. gada 5. augusts, 14:04 PDT, autors Jūlijs Āboliņš

Apple šodien paziņoja ka ar palaišanu iOS 15 un iPad 15 , tiks sākta skenēšana iCloud fotoattēli ASV, lai meklētu zināmu bērnu seksuālās vardarbības materiālu (CSAM), plānojot par atklājumiem ziņot Nacionālajam pazudušo un izmantoto bērnu centram (NCMEC).





Bērnu drošības funkcija
Pirms Apple detalizēti izklāstīja savus plānus, ziņas par CSAM iniciatīvu noplūda, un drošības pētnieki jau ir sākuši paust bažas par to, kā Apple jaunais attēlu skenēšanas protokols varētu tikt izmantots nākotnē, kā atzīmēja Financial Times .

Apple izmanto NeuralHash sistēmu, lai salīdzinātu zināmos CSAM attēlus ar lietotāja fotoattēliem iPhone pirms tie tiek augšupielādēti pakalpojumā iCloud. Ja tiek konstatēta atbilstība, šī fotogrāfija tiek augšupielādēta kopā ar kriptogrāfijas drošības kuponu, un, sasniedzot noteiktu slieksni, tiek aktivizēta pārskatīšana, lai pārbaudītu, vai personas ierīcēs ir CSAM.



iphone 12 pro max aizmugurējā stikla nomaiņas izmaksas

Pašlaik Apple izmanto savu attēlu skenēšanas un saskaņošanas tehnoloģiju, lai meklētu vardarbību pret bērniem, taču pētnieki uztraucas, ka nākotnē to varētu pielāgot, lai meklētu cita veida attēlus, kas rada vairāk bažas, piemēram, pret valdību vērstas zīmes protesti.

Tvītu sērijā Džons Hopkinss kriptogrāfijas pētnieks Metjū Grīns teica, ka CSAM skenēšana ir 'ļoti slikta ideja', jo nākotnē tā varētu paplašināties, skenējot pilnībā šifrētus fotoattēlus, nevis tikai saturu, kas tiek augšupielādēts pakalpojumā ‌iCloud‌. Bērniem Apple ir ieviešot atsevišķu skenēšanas funkciju, kas meklē seksuāla rakstura saturu tieši iMessages, kas ir pilnībā šifrēti.

Grīns arī pauda bažas par jaucējkodiem, ko Apple plāno izmantot, jo, iespējams, var rasties “sadursmes”, kad kāds nosūta nekaitīgu failu, kas koplieto jaucējkodu ar CSAM un var izraisīt nepatiesu karodziņu.

Savukārt Apple apgalvo, ka tās skenēšanas tehnoloģijai ir “ārkārtīgi augsts precizitātes līmenis”, lai nodrošinātu, ka konti nav nepareizi atzīmēti, un pārskati tiek manuāli pārskatīti, pirms personas ‌iCloud‌ konts ir atspējots un ziņojums tiek nosūtīts uz NCMEC.

Grīns uzskata, ka Apple ieviešana mudinās citus tehnoloģiju uzņēmumus pieņemt līdzīgas metodes. 'Tas pārraus dambi,' viņš rakstīja. 'Valdības to prasīs no visiem.' Viņš salīdzināja tehnoloģiju ar 'rīkiem, ko izmantojuši represīvie režīmi'.


Drošības pētnieks Alec Muffett, kurš iepriekš strādāja Facebook, sacīja, ka Apple lēmums ieviest šāda veida attēlu skenēšanu bija 'milzīgs un regresīvs solis personas privātuma labā'. 'Apple atkāpjas no privātuma, lai iespējotu 1984. gadu,' viņš teica.

Ross Andersons, Kembridžas Universitātes drošības inženierijas profesors, sacīja, ka tā ir 'absolūti šausminoša ideja', kas varētu novest pie ierīču 'izplatītas lielapjoma novērošanas'.

Kā daudzi ir norādījuši Twitter, vairāki tehnoloģiju uzņēmumi jau veic attēlu skenēšanu CSAM. Google, Twitter, Microsoft, Facebook un citi izmanto attēlu jaukšanas metodes, lai meklētu zināmus attēlus ar vardarbību pret bērniem un ziņotu par tiem.


Ir arī vērts atzīmēt, ka Apple bija jau kāda satura skenēšana par vardarbības pret bērniem attēliem pirms jaunās CSAM iniciatīvas ieviešanas. 2020. gadā Apple galvenā privātuma amatpersona Džeina Horvata sacīja, ka Apple izmantoja skrīninga tehnoloģiju, lai meklētu nelegālus attēlus, un pēc tam atspējo kontus, ja tiek atklāti pierādījumi par CSAM.

sākuma poga iphone 11 ekrānā

Apple 2019. gadā atjaunināja savas privātuma politikas jāatzīmē, ka augšupielādētais saturs tiks skenēts, lai atrastu “potenciāli nelikumīgu saturu, tostarp materiālus par bērnu seksuālu izmantošanu”, tāpēc šodienas paziņojumi nav pilnīgi jauni.

Piezīme. Ņemot vērā diskusijas politisko vai sociālo raksturu par šo tēmu, diskusiju pavediens atrodas mūsu vietnē Politiskās ziņas forums. Visi foruma dalībnieki un vietnes apmeklētāji ir laipni aicināti lasīt un sekot pavedienam, taču to var publicēt tikai foruma dalībnieki ar vismaz 100 ziņām.

Birkas: Apple privātums , Apple bērnu drošības līdzekļi