V novém FAQ se společnost Apple snaží zmírnit obavy, že by se její nová opatření proti zneužívání dětí mohla stát nástrojem sledování ze strany autoritářských vlád.
Které nástroje využívá Apple
„Čistě pro ujasnění, tato technologie je omezena na odhalování CSAM (materiály týkající se sexuálního zneužívání dětí) uložených v iCloudu a nebudeme vyhovovat žádostem žádné vlády o její rozšíření,“ uvádí samotná společnost.
Nové nástroje společnosti Apple zahrnují dvě funkce určené k ochraně dětí. Jedna z nich je nazvaná „bezpečnost komunikace“. Využívá strojové učení přímo v zařízení k identifikaci a rozmazání sexuálně explicitních obrázků přijatých dětmi v aplikaci Zprávy. Může i upozornit rodiče, pokud se dítě ve věku 12 let a mladší rozhodne takový obrázek zobrazit nebo odeslat.
Druhá funkce je určena k odhalování známých CSAM skenováním obrázků uživatelů, pokud se je rozhodnou nahrát na iCloud. Společnost Apple je v případě zjištění CSAM informována, a pokud ověří, že takový materiál existuje, upozorní na to úřady.
Hrozí zneužití technologie?
Tyto plány se setkaly se značným odporem skupin a aktivistů za ochranu digitálního soukromí, kteří tvrdí, že zavádějí pomyslná zadní vrátka do softwaru společnosti Apple.
Tyto skupiny upozorňují, že jakmile takováto cesta existuje, vždy se zároveň objeví možnost rozšíření na vyhledávání typů obsahu, které přesahují rámec materiálů týkajících se sexuálního zneužívání dětí.
Autoritářské vlády by pak technologii mohly využít ke skenování materiálů, které nejsou v souladu s politikou daného státu. Případně i režimy zaměřené proti LGBT dostávají potenciálně nástroj k potlačování sexuálních projevů.
„Dokonce i důkladně zdokumentovaná, pečlivě promyšlená a úzce vymezená zadní vrátka jsou stále zadní vrátka,“ napsala přímo nadace Electronic Frontier Foundation.
„Už jsme viděli, jak se tato strategie pomalu vkrádá do praxe. Jedna z technologií původně vytvořených za účelem vyhledávání snímků sexuálního zneužívání dětí byla znovu použita k vytvoření databáze „teroristického“ obsahu, do níž mohou společnosti přispívat a k níž mají přístup za účelem zákazu takového obsahu.“
Apple se nařčením brání
Společnost Apple však tvrdí, že má zavedena ochranná opatření, která brání tomu, aby její systémy byly využívány k odhalování čehokoli jiného než snímků sexuálního zneužívání.
Uvádí, že její seznam zakázaných obrázků poskytuje Národní centrum pro pohřešované a zneužívané děti (NCMEC) a další organizace zabývající se bezpečností dětí a že systém, pracuje pouze s hashi obrázků CSAM, které poskytuje NCMEC a další organizace zabývající se bezpečností dětí.
Společnost Apple dále konstatuje, že tento seznam hashů obrázků nebude doplňovat a že seznam je navíc stejný pro všechny iPhony a iPady, aby se zabránilo individuálnímu cílení na uživatele.
Společnost také ujistila, že odmítne požadavky vlád na přidání obrázků, které nejsou součástí CSAM, do seznamu.
„Již dříve jsme čelili požadavkům na vytvoření a zavedení změn nařízených vládou, které zhoršují soukromí uživatelů. Tyto požadavky jsme však vytrvale odmítali. A budeme je odmítat i v budoucnu,“ uvádí se v prohlášení
Ustoupí Apple vládám jednotlivých zemí?
Stojí za zmínku, že navzdory ujišťování společnosti Apple udělala v minulosti ústupky vládám, aby mohla v jejich zemích nadále působit. Ve státech, které neumožňují šifrované telefonní hovory, prodává iPhony bez FaceTime. V Číně zase odstranila tisíce aplikací ze svého App Store a stejně tak přešla na ukládání uživatelských dat na serverech státního telekomunikačního operátora.
Často kladené dotazy se také nezabývají některými obavami, které panují ohledně funkce určené k dohledávání sexuálně explicitních materiálů. Společnost uvádí, že funkce nesdílí žádné informace s Applem ani s orgány činnými v trestním řízení. Ale neuvádí, jak zajišťuje, aby se nástroj zaměřoval výhradně na sexuálně explicitní obrázky.
„K rozšíření úzkých zadních vrátek, která Apple buduje, by stačilo zároveň rozšířit parametry strojového učení, aby vyhledávaly další typy obsahu, případně upravit konfiguraci tak, aby funkce scanovala nejen dětské, ale jakékoli účty,“ napsala k této problematice EFF.
EFF také upozorňuje, že technologie strojového učení tento obsah často klasifikují nesprávně. Jakožto učebnicový příklad situace, kde tato technologie selhala, uvádí pokusy platformy Tumblr potírat sexuální obsah.