Apple Ziņas

Apple darbinieki iekšēji pauž bažas par CSAM atklāšanas plāniem

Piektdiena, 2021. gada 13. augusts, 00:43 PDT, autors Sami Fathi

Apple darbinieki tagad pievienojas to personu korim, kas rada bažas par Apple plāniem skenēt iPhone lietotāju fotoattēlu bibliotēkās, kurās ir ietverti seksuālas vardarbības pret bērniem saturs, un tiek ziņots, ka iekšēji runā par to, kā šo tehnoloģiju varētu izmantot, lai skenētu lietotāju fotoattēlus cita veida saturam, teikts ziņojumā Reuters .





Apple Park drone 2018. gada jūnijs 2
Saskaņā ar Reuters , nenoteikts skaits Apple darbinieku ir izmantojuši iekšējos Slack kanālus, lai paustu bažas par CSAM atklāšanu. Konkrēti, darbinieki ir nobažījušies, ka valdības varētu piespiest Apple izmantot tehnoloģiju cenzūrai, atrodot saturu, kas nav CSAM. Daži darbinieki ir nobažījušies, ka Apple sabojā savu nozarē vadošo privātuma reputāciju.

Apple darbinieki ir pārpludinājuši Apple iekšējo Slack kanālu ar vairāk nekā 800 ziņojumiem saistībā ar plānu, kas tika paziņots pirms nedēļas, aģentūrai Reuters pastāstīja darbinieki, kuri lūdza sevi neatpazīt. Daudzi pauda bažas, ka šo funkciju varētu izmantot represīvās valdības, kas vēlas atrast citus materiālus cenzūrai vai arestiem, liecina darbinieki, kuri redzēja vairākas dienas ilgušo pavedienu.



Iepriekšējās Apple drošības izmaiņas arī ir izraisījušas darbinieku bažas, taču jauno debašu apjoms un ilgums ir pārsteidzošs, sacīja darbinieki. Daži plakāti pauda bažas, ka Apple kaitē savai vadošajai privātuma aizsardzības reputācijai.

Tiek uzskatīts, ka Apple darbinieki, kas pilda pienākumus, kas saistīti ar lietotāju drošību, nav bijuši daļa no iekšējā protesta, teikts ziņojumā.

Kopš tā laika paziņojums pagājušajā nedēļā , Apple ir kritizēta par tās CSAM noteikšanas plāniem, kuri joprojām ir gaidāmi ar iOS 15 un iPadOS 15 šoruden. Bažas galvenokārt ir saistītas ar to, kā šī tehnoloģija varētu radīt slidenu nogāzi, lai nākotnē to īstenotu nomācošās valdības un režīmi.

kā pievienot parakstu fotoattēlam iPhone

Apple stingri atteicās no idejas, ka ierīcē iebūvēto tehnoloģiju, ko izmanto CSAM materiāla noteikšanai, varētu izmantot jebkuram citam mērķim. Iekšā publicēts FAQ dokuments , uzņēmums saka, ka dedzīgi noraidīs jebkuru šādu valdību pieprasījumu.

Vai valdības varētu piespiest Apple pievienot hash sarakstam attēlus, kas nav CSAM?
Apple noraidīs šādas prasības. Apple CSAM noteikšanas iespēja ir izstrādāta tikai, lai noteiktu zināmos CSAM attēlus, kas saglabāti pakalpojumā iCloud Photos un kurus ir identificējuši NCMEC un citu bērnu drošības grupu eksperti. Iepriekš esam saskārušies ar prasībām izveidot un ieviest valdības noteiktas izmaiņas, kas pasliktina lietotāju privātumu, un esam nelokāmi noraidījuši šīs prasības. Mēs turpināsim no tiem atteikties. Teiksim skaidri, šī tehnoloģija aprobežojas ar iCloud saglabāto CSAM atklāšanu, un mēs nepiekritīsim nevienas valdības lūgumam to paplašināt. Turklāt Apple veic cilvēka pārbaudi pirms ziņošanas NCMEC. Gadījumā, ja sistēma atzīmē fotoattēlus, kas neatbilst zināmajiem CSAM attēliem, konts netiks atspējots un ziņojums netiks iesniegts NCMEC.

An atklāta vēstule Apple kritizēšana un aicināšana uzņēmumam nekavējoties apturēt CSAM noteikšanas plānu, rakstīšanas laikā ir ieguvusi vairāk nekā 7000 parakstu. Arī WhatsApp vadītājam ir ņem vērā debatēs .

Birkas: Apple privātums , Apple bērnu drošības līdzekļi