Apple intenţionează să instaleze un software special pe telefoanele iPhone din SUA pentru a căuta dovezi ale abuzurilor comise împotriva copiilor.
Acesta este un semnal de alarmă în raport cu problema supravegherii dispozitivelor personale, avertizează cercetătorii în materie de securitate.
Compania a prezentat sistemul propus – cunoscut sub numele de „neuralMatch” – unor cadre universitare din SUA, la începutul săptămâniii trecute, potrivit celor doi experţi în domeniul securităţii care au fost informaţi cu privire la întâlnirea virtuală, scrie Financial Times, citat de Reuters. Planurile ar putea fi făcute publice pe scară largă în zilele următoare, au precizat ei.
Sistemul automat ar alerta proactiv o echipă de recenzori umani în cazul în care consideră că sunt detectate imagini ilegale, cu conţinut pornografic. Următorul pas al procedurii vizează informarea Poliţiei, pentru verificări amănunţite.
Iniţial, programul ar urma să fie lansat doar pe teritoriul SUA. Apple a refuzat să comenteze informaţiile, la solicitarea Financial Times.
Algoritmul Apple neuralMatch va scana în mod continuu fotografiile stocate pe iPhone-ul fiecărui utilizator din SUA. Acestea sunt încărcate, de asemenea, şi în sistemul de backup iCloud.
Imaginile, convertite într-un şir de caractere printr-un proces cunoscut sub numele de „hashing”, vor fi comparate cu cele existente într-o bază de date cu poze din categoria abuzului sexual asupra copiilor. Sistemul a fost antrenat pe baza a aproximativ 200.000 de astfel de imagini, colectate de Centrul Naţional non-profit pentru Copii Dispăruţi şi Exploataţi din SUA.
Potrivit surselor Financial Times, fiecare fotografie încărcată pe iCloud în SUA va primi un „voucher de siguranţă” care atestă dacă respectivul conţinut este sau nu suspect.
Odată ce un anumit număr de fotografii sunt marcate negativ, Apple va permite ca toate imaginile suspecte să fie decriptate. Ulterior, dacă suspiciunile se adeveresc, vor fi alertate autorităţile competente.