Apple Ziņas

Apple pievēršas CSAM noteikšanas problēmām un apsvērs sistēmas paplašināšanu, pamatojoties uz katru valsti

Piektdiena, 2021. gada 6. augusts, 11:25 PDT, autors Džo Rossignols

Apple šonedēļ paziņoja, ka, sākot ar šī gada beigām ar iOS 15 un iPadOS 15, uzņēmums varēs atklāt zināmos bērnu seksuālās vardarbības materiāla (CSAM) attēlus, kas saglabāti iCloud fotoattēlos , ļaujot Apple ziņot par šiem gadījumiem Nacionālajam pazudušo un izmantoto bērnu centram — bezpeļņas organizācijai, kas sadarbojas ar tiesībaizsardzības iestādēm visā ASV.





Apple csam plūsmas diagramma
Plānos ir izraisīja bažas dažu drošības pētnieku vidū un citas puses, kuras galu galā valdības varētu likt Apple pievienot jaukšanas sarakstam attēlus, kas nav saistīti ar CSAM, negodīgos nolūkos, piemēram, lai apspiestu politisko aktivitāti.

'Neatkarīgi no tā, cik labi nodomi, Apple ar to ievieš masveida novērošanu visā pasaulē.' teica Ievērojamais trauksmes cēlējs Edvards Snoudens, piebilstot, ka 'ja viņi šodien var meklēt bērnu pornogrāfiju, viņi var meklēt jebko rīt'. Bezpeļņas Electronic Frontier Foundation arī kritizēja Apple plānus , kurā teikts, ka 'pat rūpīgi dokumentētas, rūpīgi pārdomātas un šauri aptverošas aizmugures durvis joprojām ir aizmugures durvis.'



Lai novērstu šīs bažas, Apple šodien sniedza papildu komentārus par saviem plāniem.

Apple zināmā CSAM noteikšanas sistēma tiks ieviesta tikai ASV, un, lai novērstu iespējamību, ka dažas valdības varētu mēģināt ļaunprātīgi izmantot sistēmu, Apple apstiprināja Eternal, ka uzņēmums apsvērs jebkādu iespējamo sistēmas paplašināšanu visā valstī. pēc juridiskās novērtējuma veikšanas. Apple nenorādīja laika grafiku sistēmas globālai paplašināšanai, ja šāda rīcība kādreiz notiks.

Apple arī pievērsās hipotētiskajai iespējai, ka konkrēts pasaules reģions izlems korumpēt drošības organizāciju, cenšoties ļaunprātīgi izmantot sistēmu, norādot, ka sistēmas pirmais aizsardzības līmenis ir neizpaužams slieksnis, pirms lietotājs tiek atzīmēts kā nepiemērots attēls. Pat ja slieksnis tiek pārsniegts, Apple teica, ka tā manuālais pārskatīšanas process kalpos kā papildu šķērslis un apstiprinās zināmu CSAM attēlu neesamību. Apple paziņoja, ka galu galā neziņos par atzīmēto lietotāju NCMEC vai tiesībaizsardzības iestādēm un ka sistēma joprojām darbosies tieši tā, kā paredzēts.

es pazaudēju savu iPhone, kā to atrast

Apple arī izcēla dažus sistēmas atbalstītājus, un dažas puses slavēja uzņēmumu par centieniem apkarot bērnu vardarbību.

'Mēs atbalstām nepārtrauktu Apple pieejas attīstību bērnu drošībai tiešsaistē,' sacīja Stīvens Balkams, Ģimenes tiešsaistes drošības institūta izpilddirektors. 'Ņemot vērā problēmas, ar kurām vecāki saskaras, aizsargājot savus bērnus tiešsaistē, tehnoloģiju uzņēmumiem ir obligāti nepārtraukti jāatkārto un jāuzlabo savi drošības līdzekļi, lai reaģētu uz jauniem riskiem un faktisko kaitējumu.'

Apple atzina, ka nav precīzas atbildes, jo tas ir saistīts ar sistēmas ļaunprātīgas izmantošanas iespējamību, taču uzņēmums paziņoja, ka ir apņēmies izmantot sistēmu tikai zināmu CSAM attēlu noteikšanai.

Piezīme. Ņemot vērā diskusijas politisko vai sociālo raksturu par šo tēmu, diskusiju pavediens atrodas mūsu vietnē Politiskās ziņas forums. Visi foruma dalībnieki un vietnes apmeklētāji ir laipni aicināti lasīt un sekot pavedienam, taču ziņas var izlikt tikai foruma dalībniekiem ar vismaz 100 ziņām.