Η Apple ανακοίνωσε το σχεδιό της να εφαρμόσει από την επόμενη έκδοση του iOS (iOS 15) τη λειτουργία σκαναρίσματος και αυτόματης αναφοράς φωτογραφιών που σχετίζονται με παιδική πορνογραφία. Μπορείτε να δείτε αναλυτικά την ανακοίνωση και την τεχνική παρουσίαση εδώ
https://www.apple.com/child-safety/
Συγκεκριμένα από την επόμενη έκδοση του λειτουργικού, θα γίνεται τοπικά στα κινητά τηλέφωνα των χρηστών σάρωση των iCloud Photos για CSAM (Child Sexual Abuse Material) περιεχόμενο. Αυτό που φυσικά δεν τίθενται εν αμφιβόλω είναι η χρησιμότητα της κάθε κίνησης για την προστασία των παιδιών. Ωσόσο, συγκεκριμένη κίνηση έχει προκαλέσει αμφιβολίες ως προς το κατα πόσον οι δυνατότητες του συγκεκριμένου συστήματος δε θα χρησμοποιηθούν κατ’επέκτασιν και για την αναγνώριση άλλου υλικού που τυχόν βρίσκεται στα κινητά των χρηστών (όπως για παράδειγμα αντικαθεστωτικές φωτογραφίες σε χώρες όπου η κυβέρνηση είναι πρόθυμη να εφαρμόσει πιο απολυταρχικές μεθόδους).
Επιπλέον, διάφοροι ερευνητές έχουν εκφράσει τις αμφιβολίες τους για το κατα πόσον ένα τέτοιο σύστημα μπορεί να προστατέψει τους χρήστες από λανθασμένα αποτελέσματα, καθώς για παραδειγμα ανέφεραν ότι από τη στιγμή που η ενημέρωση των αρχών θα γίνεται αυτόματα, θα μπορούσε κάποιος να στείλει υλικό CSAM σε άλλον χρήστη για να τον παγιδεύσει.
Ωστόσο, αξίζει να σημειωθεί πως αντίστοιχες λειτουργίες εφαρμόζουν τόσο η Google, όσο και το Facebook και μάλιστα εδώ και αρκετά χρόνια.
Shock news, people – Twitter, Microsoft, lots of companies **do this already**. Facebook started in 2011. This is from a story I wrote in **2013**. https://t.co/8dKrm2mhj9 https://t.co/9UtDZCPJaS
— Charles Arthur (@charlesarthur) August 5, 2021
Η διαφορά ωστόσο είναι ότι αυτή τη φορά θα γίνεται τοπικά στα κινητά των χρηστών, κάτι το οποίο είναι ουστιαστικά ένα backdoor σε κάθε συσκευή, το οποίο δεν ξέρει κανείς πως θα χρησιμοποιηθεί στο μέλλον.
