Apple Ziņas

Universitātes pētnieki, kuri izveidoja CSAM skenēšanas sistēmu, mudina Apple neizmantot “bīstamo” tehnoloģiju

Piektdiena, 2021. gada 20. augusts, 6:48 PDT, autors Sami Fathi

Cienījamie universitāšu pētnieki zvana trauksmes zvanus par tehnoloģiju Apple skenēšanas plānu pamatā iPhone lietotāju fotoattēlu bibliotēkas, kas paredzētas CSAM vai bērnu seksuālas vardarbības materiāliem, nosaucot tehnoloģiju par 'bīstamu'.





Apple privātums
Džonata Maijera, Prinstonas universitātes datorzinātņu un sabiedrisko lietu docente, kā arī Anunaja Kulšresta, Prinstonas Universitātes Informācijas tehnoloģiju politikas centra pētniece, abi uzrakstīja op-ed priekš The Washington Post , izklāstot savu pieredzi saistībā ar attēlu noteikšanas tehnoloģiju.

Pētnieki pirms diviem gadiem sāka projektu, lai identificētu CSAM tiešos šifrētos tiešsaistes pakalpojumos. Pētnieki atzīmē, ka, ņemot vērā viņu jomu, viņi 'zina pilnīgas šifrēšanas vērtību, kas aizsargā datus no trešo pušu piekļuves'. Viņi saka, ka šīs bažas ir tas, kas viņus šausmina par CSAM 'izplatīšanos šifrētās platformās'.



iestatiet ar peles labo pogu noklikšķiniet uz Mac

Mayer un Kulshrestha teica, ka vēlas atrast vidusceļu situācijai: izveidot sistēmu, ko tiešsaistes platformas varētu izmantot, lai atrastu CSAM un aizsargātu pilnīgu šifrēšanu. Pētnieki atzīmē, ka jomas eksperti šaubījās par šādas sistēmas izredzēm, taču viņiem izdevās to izveidot, un šajā procesā viņi pamanīja būtisku problēmu.

Mēs centāmies izpētīt iespējamo vidusceļu, kurā tiešsaistes pakalpojumi varētu identificēt kaitīgu saturu, vienlaikus saglabājot pilnīgu šifrēšanu. Koncepcija bija vienkārša: ja kāds kopīgotu materiālu, kas atbilst zināma kaitīga satura datubāzei, pakalpojums tiks brīdināts. Ja persona kopīgotu nevainīgu saturu, pakalpojums neko nemācītos. Cilvēki nevarēja izlasīt datubāzi vai uzzināt, vai saturs atbilst, jo šī informācija varētu atklāt tiesībaizsardzības metodes un palīdzēt noziedzniekiem izvairīties no atklāšanas.

Zinoši novērotāji apgalvoja, ka tāda sistēma kā mūsējā ir tālu no iespējamas. Pēc daudziem viltus startiem mēs izveidojām strādājošu prototipu. Taču mēs saskārāmies ar acīmredzamu problēmu.

Kopš Apple paziņojuma par šo funkciju uzņēmums ir bombardēts ar bažām ka sistēma, kas nosaka CSAM, varētu tikt izmantota, lai atklātu cita veida fotoattēlus pēc nospiedošu valdību pieprasījuma. Apple stingri atteicās pret šādu iespēju, sakot, ka tā noraidīs jebkuru šādu valdību pieprasījumu.

Tomēr bažas par CSAM noteikšanai izmantotās tehnoloģijas turpmākajām sekām ir plaši izplatītas. Mayer un Kulshrestha teica, ka viņu bažas par to, kā valdības varētu izmantot sistēmu, lai atklātu saturu, kas nav CSAM, viņus ir 'traucējušas'.

vai korpusā var atrast airpodus

Ārvalstu valdība, piemēram, varētu piespiest sniegt pakalpojumus cilvēkiem, kas dalās nelabvēlīgā politiskā runā. Tas nav hipotētisks: populārā ķīniešu ziņojumapmaiņas lietotne WeChat jau izmanto satura saskaņošanu, lai identificētu disidentu materiālu. Indija šogad ieviesa noteikumus, kas varētu prasīt valdības politiku kritisku satura iepriekšēju pārbaudi. Krievija nesen sodīja Google, Facebook un Twitter par demokrātijas atbalsta protesta materiālu neizņemšanu.

Mēs atklājām citus trūkumus. Satura atbilstības procesam var būt kļūdaini pozitīvi rezultāti, un ļaunprātīgi lietotāji var izspēlēt sistēmu, pakļaujot nevainīgu lietotāju pārbaudei.

Mēs bijām tik satraukti, ka spērām soli, ko līdz šim nebijām redzējuši datorzinātņu literatūrā: mēs brīdinājām par mūsu pašu sistēmas dizainu, mudinot veikt turpmākus pētījumus par to, kā mazināt nopietnās negatīvās puses....

Apple ir turpinājis risināt lietotāju bažas par saviem plāniem, papildu dokumentu publicēšana un FAQ lapa . Apple joprojām uzskata, ka tā CSAM noteikšanas sistēma, kas darbosies lietotāja ierīcē, atbilst tās ilggadējām privātuma vērtībām.

Birkas: Apple privātums , WashingtonPost.com , Apple bērnu drošības līdzekļi