Apple čelí žalobe, ktorá tvrdí, že spoločnosť vedome umožnila používanie svojej služby iCloud na ukladanie materiálov zobrazujúcich sexuálne zneužívanie detí (CSAM). Žalobu podala 27-ročná žena, ktorá bola obeťou zneužívania od detstva. Prípad má potenciál ovplyvniť reputáciu spoločnosti, ktorá si zakladá na ochrane súkromia a bezpečnosti.

Žaloba, ktorá zastupuje tisíce obetí sexuálneho zneužívania detí, tvrdí, že nečinnosť Apple spôsobila ďalšie utrpenie obetiam. Žena uviedla, že ju príbuzný zneužíval, natáčal tento čin a zdieľal nahrávky online. Dodnes dostáva oznámenia od polície o tom, že tieto materiály sa našli na rôznych zariadeniach, vrátane tých uložených na iCloude. O téme informoval portál Neowin.

Obvinenia proti Apple

Žaloba sa zameriava na rozhodnutie Apple zrušiť funkciu na detekciu CSAM. V roku 2021 Apple oznámil technológiu s názvom NeuralHash, ktorá mala automaticky identifikovať známe materiály CSAM na iCloude. Po vlne kritiky od odborníkov na bezpečnosť a súkromie však spoločnosť od tejto iniciatívy ustúpila.

Podľa žaloby tým Apple prejavil vedomé ignorovanie bezpečnosti detí. Žaloba tvrdí, že namiesto použitia nástrojov, ktoré si spoločnosť sama vytvorila na identifikáciu, odstránenie a nahlásenie obrazového materiálu zo zneužívania obetí, Apple umožnil šírenie týchto materiálov, čím donútil obete znovu prežívať traumu.

jablko, apple, MacBook
Pixabay

Žalobcovia požadujú, aby Apple zaviedol robustné opatrenia na predchádzanie ukladaniu a šíreniu CSAM. Poskytol kompenzácie pre skupinu až 2 680 potenciálnych obetí, ktoré sa môžu pripojiť k prípadu. Apple zatiaľ verejne na žalobu nereagoval. Hovorca spoločnosti však uviedol, že Apple aktívne a naliehavo inovuje riešenia na boj proti sexuálnemu zneužívaniu detí bez kompromitovania bezpečnosti a súkromia svojich používateľov.

Apple je známy svojím dôrazom na ochranu súkromia, pričom opakovane zdôrazňuje, že používateľské dáta sú bezpečne uložené a neviditeľné ani pre samotnú spoločnosť. Táto žaloba však priamo útočí na tento pilier reputácie Apple.

Širšie dôsledky

Výsledok tohto prípadu môže mať ďalekosiahle následky pre značku Apple. Ak bude spoločnosť donútená zaviesť nástroje na detekciu CSAM, môže sa stretnúť s ďalšou kritikou za zásah do súkromia používateľov. Zároveň môže naraziť na regulačné orgány a spoločenský tlak, ak nepreukáže dostatočnú ochotu chrániť obete zneužívania.

Tento prípad tiež otvára otázku, ako technologické giganty balansujú medzi ochranou súkromia používateľov a zodpovednosťou za obsah uložený na ich platformách. Rozhodnutie súdu by mohlo byť precedensom, ktorý určí budúce pravidlá pre podobné prípady v technologickom priemysle.

Pošli nám TIP na článok



Teraz čítajú

NAJČÍTANEJŠIE ZO STARTITUP