Attualità
Apple visionerà TUTTE le foto caricate sul cloud. Finalità giusta, ma fine della privacy e arriva il “Grande Fratello”
Come confermato da un comunicato Apple ha pubblicato un post che descrive in dettaglio come prevede d’introdurre funzionalità a tutela dei bambini in tre aree: nei nuovi strumenti disponibili per i genitori, attraverso la scansione di foto di iPhone e iCloud e negli aggiornamenti di Siri e Ricerca.
Le funzionalità che Apple lancerà arriveranno entro la fine dell’anno con gli aggiornamenti a iOS 15, iPad OS 15, watchOS 8 e macOS Monterey.
“Questo programma è ambizioso e proteggere i bambini è una responsabilità importante. Questi sforzi si evolveranno e si espanderanno nel tempo”, scrive Apple.
Tra le novità maggiori quella secondo cui l’app dei messaggi includerà nuove notifiche che avviseranno i bambini e i loro genitori quando i primi stanno per ricevere foto sessualmente esplicite. Queste immagini inoltre arriveranno sfuocate e sarà necessario dare un consenso per poterle vedere.
Inoltre i genitori saranno avvisati se il minore cerca d’inviare delle foto sessualmente esplicite.
“Messages utilizza l’apprendimento automatico sul dispositivo per analizzare gli allegati di immagini e determinare se una foto è sessualmente esplicita. La funzione è progettata in modo che Apple non abbia accesso ai messaggi”, spiega Apple. In questio modo, teoricamente, vi sarebbe una tutela della privacy.
Però è un’altra innovazione a suscitare dei dubbi: Apple prevede inoltre di aggiungere il rilevamento CSAM, che sta per Child Sexual Abuse Material. Si riferisce a contenuti che descrivono attività sessualmente esplicite che coinvolgono un bambino. Il nuovo sistema consentirà ad Apple di rilevare le immagini CSAM note archiviate in iCloud Photos e di segnalarle al National Center for Missing and Exploited Children (NCMEC).
Apple afferma che il suo metodo di rilevamento di CSAM è “progettato pensando alla privacy degli utenti”. Al posto della scansione delle immagini nel cloud, il sistema eseguirà la corrispondenza sul dispositivo utilizzando un database fornito da NCMEC e altre organizzazioni per la sicurezza dei bambini. Apple trasforma quindi questo database in un insieme illeggibile di hash che vengono archiviati in modo sicuro sui dispositivi degli utenti.
Comunque la si voglia mettere l’analisi delle immagini su iCloud richiede che queste siano viste, e magari non solo da un software, anche perché , per quanto precisa possa essere un’analisi AI, comunque c’è bisogno di un filtro finale umano. Anche se nascondendo il tutto sotto un belo di “Tutela della privacy” avremo un software o una persona che leggerà le foto salvate su iCloud, anche se a fin di bene. Se domani però a queste finalità sicuramente eticamente rilevanti se ne aggiungessero altre? Un problema non da poco. Voi vi fidate della privacy dei dati salvati su cloud ?
Grazie al nostro canale Telegram potete rimanere aggiornati sulla pubblicazione di nuovi articoli di Scenari Economici.