Apple šodien paziņoja ka ar palaišanu iOS 15 un iPad 15 , tiks sākta skenēšana iCloud fotoattēli ASV, lai meklētu zināmu bērnu seksuālās vardarbības materiālu (CSAM), plānojot par atklājumiem ziņot Nacionālajam pazudušo un izmantoto bērnu centram (NCMEC).
Pirms Apple detalizēti izklāstīja savus plānus, ziņas par CSAM iniciatīvu noplūda, un drošības pētnieki jau ir sākuši paust bažas par to, kā Apple jaunais attēlu skenēšanas protokols varētu tikt izmantots nākotnē, kā atzīmēja Financial Times .
Apple izmanto NeuralHash sistēmu, lai salīdzinātu zināmos CSAM attēlus ar lietotāja fotoattēliem iPhone pirms tie tiek augšupielādēti pakalpojumā iCloud. Ja tiek konstatēta atbilstība, šī fotogrāfija tiek augšupielādēta kopā ar kriptogrāfijas drošības kuponu, un, sasniedzot noteiktu slieksni, tiek aktivizēta pārskatīšana, lai pārbaudītu, vai personas ierīcēs ir CSAM.
iphone 12 pro max aizmugurējā stikla nomaiņas izmaksas
Pašlaik Apple izmanto savu attēlu skenēšanas un saskaņošanas tehnoloģiju, lai meklētu vardarbību pret bērniem, taču pētnieki uztraucas, ka nākotnē to varētu pielāgot, lai meklētu cita veida attēlus, kas rada vairāk bažas, piemēram, pret valdību vērstas zīmes protesti.
Tvītu sērijā Džons Hopkinss kriptogrāfijas pētnieks Metjū Grīns teica, ka CSAM skenēšana ir 'ļoti slikta ideja', jo nākotnē tā varētu paplašināties, skenējot pilnībā šifrētus fotoattēlus, nevis tikai saturu, kas tiek augšupielādēts pakalpojumā iCloud. Bērniem Apple ir ieviešot atsevišķu skenēšanas funkciju, kas meklē seksuāla rakstura saturu tieši iMessages, kas ir pilnībā šifrēti.
Grīns arī pauda bažas par jaucējkodiem, ko Apple plāno izmantot, jo, iespējams, var rasties “sadursmes”, kad kāds nosūta nekaitīgu failu, kas koplieto jaucējkodu ar CSAM un var izraisīt nepatiesu karodziņu.
Savukārt Apple apgalvo, ka tās skenēšanas tehnoloģijai ir “ārkārtīgi augsts precizitātes līmenis”, lai nodrošinātu, ka konti nav nepareizi atzīmēti, un pārskati tiek manuāli pārskatīti, pirms personas iCloud konts ir atspējots un ziņojums tiek nosūtīts uz NCMEC.
Grīns uzskata, ka Apple ieviešana mudinās citus tehnoloģiju uzņēmumus pieņemt līdzīgas metodes. 'Tas pārraus dambi,' viņš rakstīja. 'Valdības to prasīs no visiem.' Viņš salīdzināja tehnoloģiju ar 'rīkiem, ko izmantojuši represīvie režīmi'.
Tās ir sliktas lietas. Es īpaši nevēlos būt bērnu pornogrāfijas pusē, un es neesmu terorists. Bet problēma ir tā, ka šifrēšana ir spēcīgs rīks, kas nodrošina privātumu, un jūs nevarat nodrošināt spēcīgu privātumu, vienlaikus pārraugot katru attēlu, ko kāds sūta. — Metjū Grīns (@matthew_d_green) 2021. gada 5. augusts
Drošības pētnieks Alec Muffett, kurš iepriekš strādāja Facebook, sacīja, ka Apple lēmums ieviest šāda veida attēlu skenēšanu bija 'milzīgs un regresīvs solis personas privātuma labā'. 'Apple atkāpjas no privātuma, lai iespējotu 1984. gadu,' viņš teica.
Ross Andersons, Kembridžas Universitātes drošības inženierijas profesors, sacīja, ka tā ir 'absolūti šausminoša ideja', kas varētu novest pie ierīču 'izplatītas lielapjoma novērošanas'.
Kā daudzi ir norādījuši Twitter, vairāki tehnoloģiju uzņēmumi jau veic attēlu skenēšanu CSAM. Google, Twitter, Microsoft, Facebook un citi izmanto attēlu jaukšanas metodes, lai meklētu zināmus attēlus ar vardarbību pret bērniem un ziņotu par tiem.
Un, ja jums rodas jautājums, vai Google skenē attēlus, lai atrastu bērnu vardarbības attēlus, stāstā, ko rakstīju pirms astoņiem gadiem, es to atbildēju: tā to dara **KOPŠ 2008. GADA**. Varbūt visi apsēsties un uzvilkt cepures. pic.twitter.com/ruJ4Z8SceY - Čārlzs Artūrs (@charlesarthur) 2021. gada 5. augusts
Ir arī vērts atzīmēt, ka Apple bija jau kāda satura skenēšana par vardarbības pret bērniem attēliem pirms jaunās CSAM iniciatīvas ieviešanas. 2020. gadā Apple galvenā privātuma amatpersona Džeina Horvata sacīja, ka Apple izmantoja skrīninga tehnoloģiju, lai meklētu nelegālus attēlus, un pēc tam atspējo kontus, ja tiek atklāti pierādījumi par CSAM.
sākuma poga iphone 11 ekrānā
Apple 2019. gadā atjaunināja savas privātuma politikas jāatzīmē, ka augšupielādētais saturs tiks skenēts, lai atrastu “potenciāli nelikumīgu saturu, tostarp materiālus par bērnu seksuālu izmantošanu”, tāpēc šodienas paziņojumi nav pilnīgi jauni.
Piezīme. Ņemot vērā diskusijas politisko vai sociālo raksturu par šo tēmu, diskusiju pavediens atrodas mūsu vietnē Politiskās ziņas forums. Visi foruma dalībnieki un vietnes apmeklētāji ir laipni aicināti lasīt un sekot pavedienam, taču to var publicēt tikai foruma dalībnieki ar vismaz 100 ziņām.
Birkas: Apple privātums , Apple bērnu drošības līdzekļi
Populārākas Posts