Apple Ziņas

Apple publicē FAQ, lai risinātu bažas par CSAM noteikšanu un ziņojumu skenēšanu

Pirmdien, 2021. gada 9. augustā, plkst. 2:50 pēc PDT, Tims Hārdviks

Apple ir publicējis FAQ ar nosaukumu “Paplašināta aizsardzība bērniem”, kura mērķis ir kliedēt lietotāju bažas par privātumu saistībā ar jauno CSAM noteikšanu iCloud fotoattēli un sakaru drošība uzņēmuma ziņojumiem paredzētajiem līdzekļiem paziņoja pagājušajā nedēļā .





Apple privātums
'Kopš mēs paziņojām par šīm funkcijām, daudzas ieinteresētās personas, tostarp privātuma organizācijas un bērnu drošības organizācijas, ir paudušas atbalstu šim jaunajam risinājumam, un dažas ir uzdevušas jautājumus,' teikts FAQ. 'Šis dokuments kalpo, lai risinātu šos jautājumus un nodrošinātu lielāku skaidrību un pārredzamību procesā.'

Dažas diskusijas ir izplūdušas atšķirību starp abām funkcijām, un Apple ļoti cenšas to risināt dokumentu lai tos atšķirtu, paskaidrojot, ka saziņas drošība programmā Ziņojumi darbojas tikai uz attēliem, kas nosūtīti vai saņemti lietotnē Ziņojumi bērnu kontiem, kas iestatīti ģimenes koplietošanā, savukārt CSAM noteikšana pakalpojumā ‌iCloud fotoattēli‌ 'ietekmē tikai tos lietotājus, kuri izvēlējušies lietot ‌iCloud Photos‌ lai saglabātu savus fotoattēlus... Tas neietekmē citus ierīcē esošos datus.



No FAQ:

kā Apple mūzikā atrast tīru mūziku

Šīs divas funkcijas nav vienādas un neizmanto vienu un to pašu tehnoloģiju.

Saziņas drošība lietotnē Ziņojumi ir izstrādāta, lai sniegtu vecākiem un bērniem papildu rīkus, kas palīdzētu aizsargāt bērnus no seksuāla rakstura attēlu sūtīšanas un saņemšanas lietotnē Ziņojumi. Tas darbojas tikai ar attēliem, kas nosūtīti vai saņemti lietotnē Ziņojumi bērnu kontiem, kas iestatīti funkcijā Family Sharing. Tā analizē ierīcē esošos attēlus un nemaina ziņojumu konfidencialitātes garantijas. Kad bērna konts nosūta vai saņem izteikti seksuāla rakstura attēlus, fotoattēls tiks aizmiglots un bērns tiks brīdināts, viņam tiks piedāvāti noderīgi resursi un viņš tiks pārliecināts, ka tas ir pareizi, ja viņš nevēlas skatīt vai nosūtīt fotoattēlu. Kā papildu piesardzība maziem bērniem var arī pateikt, ka viņu vecāki saņems ziņojumu, ja viņi to apskatīs, lai viņi būtu drošībā.

Otrā funkcija, CSAM noteikšana pakalpojumā iCloud Photos, ir paredzēta, lai novērstu CSAM no iCloud Photos, nesniedzot Apple informāciju par citiem fotoattēliem, izņemot tos, kas atbilst zināmajiem CSAM attēliem. Lielākajā daļā valstu, tostarp Amerikas Savienotajās Valstīs, ir aizliegts glabāt CSAM attēlus. Šī funkcija ietekmē tikai tos lietotājus, kuri savu fotoattēlu glabāšanai ir izvēlējušies izmantot iCloud Photos. Tas neietekmē lietotājus, kuri nav izvēlējušies izmantot iCloud fotoattēlus. Tas neietekmē citus ierīces datus. Šī funkcija neattiecas uz Ziņojumiem.

Pārējā dokumenta daļa ir sadalīta trīs sadaļās (tālāk treknrakstā) ar atbildēm uz šādiem bieži uzdotajiem jautājumiem:

jaunā Apple pulksteņa izlaišanas datums 2021

iphone 12 pro vai pro max
    Saziņas drošība programmā Ziņojumi
  • Kas var izmantot saziņas drošību lietotnē Ziņojumi?
  • Vai tas nozīmē, ka Ziņojumi kopīgos informāciju ar Apple vai tiesībaizsardzības iestādēm?
  • Vai tas pārtrauc pilnīgu šifrēšanu pakalpojumā Ziņojumi?
  • Vai šī funkcija neļauj bērniem vardarbīgās mājās meklēt palīdzību?
  • Vai vecāki tiks informēti, nebrīdinot bērnus un nedodot viņiem iespēju izvēlēties?
  • CSAM noteikšana
  • Vai tas nozīmē, ka Apple skenēs visus fotoattēlus, kas saglabāti manā ierīcē iPhone ?
  • Vai tas lejupielādēs CSAM attēlus manā ‌iPhone‌ salīdzināt ar manām fotogrāfijām?
  • Kāpēc Apple to dara tagad?
  • Drošība CSAM noteikšanai pakalpojumā iCloud Photos
  • Vai CSAM noteikšanas sistēma pakalpojumā ‌iCloud Photos‌ izmantot, lai atklātu citas lietas, nevis CSAM?
  • Vai valdības varētu piespiest Apple pievienot hash sarakstam attēlus, kas nav CSAM?
  • Vai sistēmā var 'injicēt' attēlus, kas nav CSAM, lai atzīmētu kontus, kas nav saistīti ar CSAM?
  • Vai CSAM tiks atklāts pakalpojumā ‌iCloud fotoattēli‌ viltus karogu nevainīgus cilvēkus tiesībsargājošajām iestādēm?

Ieinteresētajiem lasītājiem ir jāiepazīstas ar šo dokumentu, lai iegūtu pilnīgas Apple atbildes uz šiem jautājumiem. Tomēr ir vērts atzīmēt, ka tiem jautājumiem, uz kuriem var atbildēt ar bināro jā/nē, Apple tos visus sāk ar 'Nē', izņemot nākamos trīs jautājumus no sadaļas 'Drošība CSAM noteikšanai ‌ iCloud fotoattēli‌:'

Vai CSAM noteikšanas sistēmu pakalpojumā iCloud Photos var izmantot, lai noteiktu citas lietas, nevis CSAM?
Mūsu process ir izstrādāts tā, lai tas nenotiktu. CSAM noteikšana pakalpojumam iCloud Photos ir veidota tā, lai sistēma darbotos tikai ar CSAM attēlu jaucējkodiem, ko nodrošina NCMEC un citas bērnu drošības organizācijas. Šī attēlu jaucēju kopa ir balstīta uz attēliem, ko ieguvušas un apstiprinājušas bērnu drošības organizācijas kā CSAM. Nav automatizētas ziņošanas tiesībaizsardzības iestādēm, un Apple veic cilvēka pārbaudi pirms ziņojuma iesniegšanas NCMEC. Rezultātā sistēma ir paredzēta tikai ziņošanai par fotoattēliem, kas pakalpojumā iCloud Photos ir zināmi kā CSAM. Lielākajā daļā valstu, tostarp Amerikas Savienotajās Valstīs, vienkārša šo attēlu glabāšana ir noziegums, un Apple ir pienākums ziņot attiecīgajām iestādēm par visiem gadījumiem, par kuriem mēs uzzinām.

Vai valdības varētu piespiest Apple pievienot hash sarakstam attēlus, kas nav CSAM?
Apple noraidīs šādas prasības. Apple CSAM noteikšanas iespēja ir izstrādāta tikai, lai noteiktu zināmos CSAM attēlus, kas glabājas iCloud Photos un kurus ir identificējuši NCMEC un citu bērnu drošības grupu eksperti. Iepriekš esam saskārušies ar prasībām izveidot un ieviest valdības noteiktas izmaiņas, kas pasliktina lietotāju privātumu, un esam nelokāmi noraidījuši šīs prasības. Mēs turpināsim no tiem atteikties. Teiksim skaidri, šī tehnoloģija aprobežojas ar iCloud saglabāto CSAM atklāšanu, un mēs nepiekritīsim nevienas valdības lūgumam to paplašināt. Turklāt Apple veic cilvēka pārbaudi pirms ziņošanas NCMEC. Gadījumā, ja sistēma atzīmē fotoattēlus, kas neatbilst zināmiem CSAM attēliem, konts netiks atspējots un ziņojums netiks iesniegts NCMEC.

Vai sistēmā var 'injicēt' attēlus, kas nav CSAM, lai atzīmētu kontus, kas nav saistīti ar CSAM?
Mūsu process ir izstrādāts tā, lai tas nenotiktu. Atbilstības noteikšanai izmantoto attēlu jaucēju kopa ir no zināmiem, esošiem CSAM attēliem, kurus ieguvušas un apstiprinājušas bērnu drošības organizācijas. Apple nepievieno zināmo CSAM attēlu jaucējkodu kopu. Katra iPhone un iPad lietotāja operētājsistēmā tiek glabāta viena un tā pati jaucējvārdu kopa, tāpēc mērķtiecīgi uzbrukumi tikai konkrētām personām saskaņā ar mūsu dizainu nav iespējami. Visbeidzot, nav automatizētas ziņošanas tiesībaizsardzības iestādēm, un Apple veic cilvēka pārbaudi pirms ziņojuma iesniegšanas NCMEC. Maz ticamā gadījumā, ja sistēma atzīmēs attēlus, kas neatbilst zināmajiem CSAM attēliem, konts netiks atspējots un ziņojums netiks iesniegts NCMEC.

Apple ir saskārusies ar nopietnu privātuma aizstāvju, drošības pētnieku, kriptogrāfijas ekspertu, akadēmisko aprindu un citu personu kritiku par tās lēmumu ieviest tehnoloģiju, izlaižot iOS 15 un iPad 15 , gaidāms septembrī.

Tā rezultātā ir izveidots atklāta vēstule kritizējot Apple plānu iPhone tālruņos skenēt CSAM pakalpojumā ‌iCloud Photos‌ un nepārprotami attēli bērnu ziņojumos, kas kopš rakstīšanas ir ieguvuši vairāk nekā 5500 parakstus. Apple ir saņēmis kritiku arī no Facebook piederošā WhatsApp, kuras vadītājs Vils Ketkarts to sauca 'nepareiza pieeja un šķērslis cilvēku privātumam visā pasaulē.' Arī Epic Games izpilddirektors Tims Svīnijs uzbruka lēmumā, apgalvojot, ka viņš ir 'ļoti mēģinājis', lai redzētu šo soli no Apple viedokļa, taču secināja, ka 'neizbēgami, šī ir valdības spiegprogrammatūra, ko Apple instalējis, pamatojoties uz vainas pieņēmumu'.

'Neatkarīgi no tā, cik labi nodomi, Apple ar to ievieš masveida novērošanu visā pasaulē.' teica Ievērojamais trauksmes cēlējs Edvards Snoudens, piebilstot, ka 'ja viņi šodien var meklēt bērnu pornogrāfiju, viņi var meklēt jebko rīt'. Arī bezpeļņas Electronic Frontier Foundation kritizēja Apple plānos, norādot, ka 'pat rūpīgi dokumentētas, rūpīgi pārdomātas un šauras darbības jomas aizmugures durvis joprojām ir aizmugures durvis'.

cietā atiestatīšana iphone se 2nd gen
Birkas: Apple privātums , Apple bērnu drošības līdzekļi