Apple Naujienos

Saugumo tyrinėtojai išreiškia nerimą dėl „Apple“ planų nuskaityti „iCloud“ vaizdus, ​​tačiau praktika jau plačiai paplitusi

2021 m. rugpjūčio 5 d., ketvirtadienis, 14:04 PDT, Juli Clover

Apple šiandien paskelbta kad su paleidimu iOS 15 ir iPad 15 , bus pradėtas nuskaitymas „iCloud“ nuotraukos JAV ieškoti žinomos vaikų seksualinės prievartos medžiagos (CSAM) ir apie išvadas pranešti Nacionaliniam dingusių ir išnaudojamų vaikų centrui (NCMEC).





Vaiko saugos funkcija
Prieš tai, kai Apple detalizavo savo planus, naujienos apie CSAM iniciatyvą nutekėjo, o saugumo tyrinėtojai jau pradėjo reikšti susirūpinimą dėl to, kaip naujasis Apple vaizdo nuskaitymo protokolas galėtų būti naudojamas ateityje, kaip pažymėjo Finansiniai laikai .

„Apple“ naudoja „NeuralHash“ sistemą, kad palygintų žinomus CSAM vaizdus su naudotojo nuotraukomis iPhone prieš įkeliant juos į „iCloud“. Jei randama atitiktis, ta nuotrauka įkeliama su kriptografiniu saugos kuponu, o pasiekus tam tikrą slenkstį suaktyvinama peržiūra, siekiant patikrinti, ar asmens įrenginiuose nėra CSAM.



kaip atsiskaityti apple kortele Apple grynaisiais

Šiuo metu „Apple“ naudoja savo vaizdų nuskaitymo ir suderinimo technologiją, kad ieškotų prievartos prieš vaikus, tačiau mokslininkai nerimauja, kad ateityje ji gali būti pritaikyta ieškoti kitų rūšių vaizdų, kurie kelia didesnį susirūpinimą, pavyzdžiui, antivyriausybinius ženklus protestai.

„Twitter“ žinučių serijoje Johns Hopkins kriptografijos tyrinėtojas Matthew Green teigė, kad CSAM nuskaitymas yra „labai bloga idėja“, nes ateityje jis gali nuskaityti ne tik turinį, kuris įkeliamas į ‌iCloud‌, o iki galo užšifruotas nuotraukas. Vaikams Apple yra įdiegiant atskirą nuskaitymo funkciją, kuri ieško seksualinio pobūdžio turinio tiesiogiai „iMessages“, kurie yra visiškai užšifruoti.

Greenas taip pat išreiškė susirūpinimą dėl maišos, kurią „Apple“ planuoja naudoti, nes gali įvykti „susidūrimai“, kai kas nors siunčia nekenksmingą failą, kuris bendrina maišą su CSAM ir gali sukelti klaidingą vėliavėlę.

„Apple“ savo ruožtu teigia, kad jos nuskaitymo technologija turi „itin aukštą tikslumo lygį“, kad būtų užtikrinta, jog paskyros nėra neteisingai pažymėtos, o ataskaitos peržiūrimos rankiniu būdu prieš asmens ‌iCloud‌ paskyra išjungta ir ataskaita siunčiama NCMEC.

Greenas mano, kad „Apple“ įgyvendinimas paskatins kitas technologijų įmones taikyti panašius metodus. „Tai sulaužys užtvanką“, – rašė jis. „Vyriausybės to reikalaus iš visų“. Jis palygino technologiją su „įrankiais, kuriuos panaudojo represiniai režimai“.


Saugumo tyrinėtojas Alecas Muffettas, anksčiau dirbęs „Facebook“, teigė, kad „Apple“ sprendimas įdiegti tokio tipo vaizdų nuskaitymą buvo „didžiulis ir regresinis žingsnis siekiant asmens privatumo“. „Apple“ grįžta į privatumą, kad įgalintų 1984 m.“, – sakė jis.

Rossas Andersonas, Kembridžo universiteto saugumo inžinerijos profesorius, sakė, kad tai „visiškai pasibaisėtina idėja“, galinti paskatinti „paskirstytą masinį įrenginių stebėjimą“.

Kaip daugelis pabrėžė „Twitter“, kelios technologijų įmonės jau nuskaito CSAM vaizdus. „Google“, „Twitter“, „Microsoft“, „Facebook“ ir kiti naudoja vaizdų maišos metodus, kad ieškotų žinomų vaikų išnaudojimo vaizdų ir praneštų apie juos.


Taip pat verta paminėti, kad „Apple“ buvo jau nuskaito tam tikrą turinį prievartos prieš vaikus vaizdams prieš pradedant taikyti naują CSAM iniciatyvą. 2020 m. „Apple“ vyriausioji privatumo pareigūnė Jane Horvath sakė, kad „Apple“ naudojo atrankos technologiją, kad ieškotų neteisėtų vaizdų ir išjungtų paskyras, jei aptiktų CSAM įrodymų.

yra naujas Apple laikrodis, kuris pasirodys 2021 m

„Apple“ 2019 m atnaujino savo privatumo politiką pažymėti, kad įkeltas turinys bus nuskaitytas dėl „galimai neteisėto turinio, įskaitant vaikų seksualinio išnaudojimo medžiagą“, todėl šiandieniniai pranešimai nėra visiškai nauji.

Pastaba: dėl politinio ar socialinio diskusijos šia tema pobūdžio diskusijų gija yra mūsų svetainėje Politinės naujienos forumas. Visi forumo nariai ir svetainės lankytojai gali skaityti ir sekti temą, tačiau paskelbti gali tik forumo nariai, turintys bent 100 pranešimų.

Žymos: Apple privatumas , Apple vaikų saugos funkcijos