Εξήγηση: Πώς θα σαρώσει η Apple για εικόνες εκμετάλλευσης παιδιών σε συσκευές και γιατί κάνει τα φρύδια
Αναμένεται να κυκλοφορήσει αρχικά στις Ηνωμένες Πολιτείες, τα χαρακτηριστικά περιλαμβάνουν τη χρήση νέας τεχνολογίας για τον περιορισμό της εξάπλωσης του CSAM στο διαδίκτυο, ειδικά μέσω της πλατφόρμας Apple.

Το ανακοίνωσε η Apple Οι ενημερώσεις λογισμικού αργότερα αυτό το έτος θα φέρουν νέες δυνατότητες που θα βοηθήσει στην προστασία των παιδιών από τα αρπακτικά που χρησιμοποιούν εργαλεία επικοινωνίας για να τα στρατολογήσουν και να τα εκμεταλλευτούν και να περιορίσουν τη διάδοση του υλικού σεξουαλικής κακοποίησης παιδιών (CSAM).
Αναμένεται να κυκλοφορήσει αρχικά στις Ηνωμένες Πολιτείες, τα χαρακτηριστικά περιλαμβάνουν τη χρήση νέας τεχνολογίας για τον περιορισμό της εξάπλωσης του CSAM στο διαδίκτυο, ειδικά μέσω της πλατφόρμας Apple.
Στη συνέχεια, θα υπάρχει προστασία στη συσκευή για τα παιδιά από την αποστολή ή τη λήψη ευαίσθητου περιεχομένου, με μηχανισμούς ειδοποίησης των γονέων σε περίπτωση που ο χρήστης είναι κάτω των 13 ετών. Η Apple θα παρεμβαίνει επίσης όταν το Siri ή η Αναζήτηση χρησιμοποιείται για την αναζήτηση θεμάτων που σχετίζονται με το CSAM .
Ποια τεχνολογία κάνει η Apple για να αποτρέψει τη διάδοση του CSAM στο διαδίκτυο;
Σε μια ανάρτηση ιστολογίου, η Apple εξήγησε ότι θα χρησιμοποιήσει εφαρμογές κρυπτογραφίας μέσω iOS και iPadOS για να αντιστοιχίσει γνωστές εικόνες CSAM που είναι αποθηκευμένες στο iCloud Photo. Η τεχνολογία θα αντιστοιχίσει εικόνες στο iCloud ενός χρήστη με γνωστές εικόνες που παρέχονται από οργανισμούς για την ασφάλεια των παιδιών. Και αυτό γίνεται χωρίς να φαίνεται πραγματικά η εικόνα και μόνο αναζητώντας αυτό που μοιάζει με ταίριασμα δακτυλικών αποτυπωμάτων. Σε περίπτωση που υπάρχουν αγώνες που ξεπερνούν ένα όριο, η Apple θα αναφέρει αυτές τις περιπτώσεις στο Εθνικό Κέντρο για τα εξαφανισμένα και εκμεταλλευόμενα παιδιά (NCMEC).
Η Apple διευκρίνισε ότι η τεχνολογία της διατηρεί κατά νου το απόρρητο των χρηστών και ως εκ τούτου η βάση δεδομένων μετατρέπεται σε ένα μη αναγνώσιμο σύνολο κατακερματισμών που αποθηκεύεται με ασφάλεια στις συσκευές των χρηστών. Πρόσθεσε ότι προτού μεταφορτωθεί οποιαδήποτε εικόνα στο iCloud, το λειτουργικό σύστημα θα την αντιστοιχίσει με τους γνωστούς κατακερματισμούς CSAM χρησιμοποιώντας μια κρυπτογραφική τεχνολογία που ονομάζεται διασταύρωση ιδιωτικού συνόλου. Αυτή η τεχνολογία θα καθορίσει επίσης έναν αγώνα χωρίς να αποκαλύψει το αποτέλεσμα.
Σε αυτό το σημείο, η συσκευή δημιουργεί ένα κουπόνι ασφάλειας κρυπτογράφησης με το αποτέλεσμα αγώνα και πρόσθετα κρυπτογραφημένα δεδομένα και το αποθηκεύει στο iClouds με την εικόνα. Η τεχνολογία κοινής χρήσης μυστικών κατωφλίου διασφαλίζει ότι αυτά τα κουπόνια δεν μπορούν να ερμηνευθούν από την Apple εκτός εάν ο λογαριασμός iCloud Photos ξεπεράσει ένα όριο γνωστού περιεχομένου CSAM. Αυτό το όριο, όπως ισχυρίστηκε το ιστολόγιο, έχει τεθεί σε εφαρμογή για να παρέχει ένα εξαιρετικά υψηλό επίπεδο ακρίβειας και να εξασφαλίζει λιγότερες από μία στο ένα τρισεκατομμύριο πιθανότητες ανά έτος λανθασμένης επισήμανσης ενός συγκεκριμένου λογαριασμού. Επομένως, μια μεμονωμένη εικόνα είναι απίθανο να ενεργοποιήσει μια ειδοποίηση.
Ωστόσο, εάν ξεπεραστεί το όριο, η Apple μπορεί να ερμηνεύσει τα περιεχόμενα των κουπονιών ασφαλείας και να ελέγξει χειροκίνητα κάθε αναφορά για αντιστοιχία, να απενεργοποιήσει τον λογαριασμό του χρήστη και να στείλει μια αναφορά στο NCMEC. Η Apple είπε ότι οι χρήστες θα μπορούν να υποβάλουν ένσταση εάν πιστεύουν ότι έχουν επισημανθεί εσφαλμένα.
jacksepticeye καθαρή αξία 2017
Πώς λειτουργούν τα άλλα χαρακτηριστικά;
Η νέα ασφάλεια επικοινωνίας της Apple για τα Μηνύματα θα θολώσει μια ευαίσθητη εικόνα και θα προειδοποιήσει ένα παιδί για τη φύση του περιεχομένου. Εάν ενεργοποιηθεί από το backend, το παιδί θα μπορούσε επίσης να ενημερωθεί ότι οι γονείς του έχουν ειδοποιηθεί για το μήνυμα που είδαν. Το ίδιο θα ισχύει αν το παιδί αποφασίσει να στείλει ένα ευαίσθητο μήνυμα. Η Apple είπε ότι το Messages θα χρησιμοποιήσει τη μηχανική εκμάθηση στη συσκευή για να αναλύσει τα συνημμένα εικόνων και να καθορίσει εάν μια φωτογραφία είναι σεξουαλικά ακατάλληλη και ότι η Apple δεν θα έχει πρόσβαση στα μηνύματα. Η δυνατότητα θα έρθει ως ενημέρωση για λογαριασμούς που έχουν ρυθμιστεί ως οικογένειες στο iCloud για τις πιο πρόσφατες εκδόσεις λειτουργικού συστήματος.
Επίσης, με την ενημέρωση, όταν ένας χρήστης προσπαθεί να αναζητήσει πιθανά θέματα CSAM, το Siri και η Αναζήτηση θα εξηγήσουν γιατί αυτό θα μπορούσε να είναι επιβλαβές και προβληματικό. Οι χρήστες θα λάβουν επίσης καθοδήγηση σχετικά με το πώς να υποβάλουν μια αναφορά για την εκμετάλλευση παιδιών εάν το ζητήσουν.
| Εξήγηση: Πώς και γιατί η Google θα προσφέρει περισσότερη προστασία στα παιδιά στο διαδίκτυο
Γιατί το κάνει αυτό η Apple και ποιες είναι οι ανησυχίες που εγείρονται;
Οι μεγάλες εταιρείες τεχνολογίας δέχονται για χρόνια πιέσεις να καταπολεμήσουν τη χρήση της πλατφόρμας τους για εκμετάλλευση παιδιών. Πολλές αναφορές έχουν υπογραμμίσει όλα αυτά τα χρόνια ότι δεν έγιναν αρκετά για να σταματήσει η τεχνολογία να κάνει ευρύτερα διαθέσιμο το περιεχόμενο CSAM.
Ωστόσο, η ανακοίνωση της Apple δέχεται επικρίσεις με πολλούς να υπογραμμίζουν πώς είναι ακριβώς αυτό το είδος τεχνολογίας επιτήρησης που πολλές κυβερνήσεις θα ήθελαν να έχουν και θα ήθελαν να κάνουν κατάχρηση. Το γεγονός ότι αυτό προήλθε από την Apple, η οποία ήταν για πολύ καιρό ο τάφος της ιδιωτικής ζωής, έχει εκπλήξει πολλούς.
Επίσης, εμπειρογνώμονες κρυπτογραφίας όπως ο Matthew Green του Πανεπιστημίου Johns Hopkins έχουν εκφράσει φόβους ότι το σύστημα θα μπορούσε να χρησιμοποιηθεί για να πλαισιώσει αθώους ανθρώπους που τους στέλνουν εικόνες που προορίζονται να ενεργοποιήσουν τους αγώνες για το CSAM. Οι ερευνητές μπόρεσαν να το κάνουν αυτό πολύ εύκολα, είπε στο NPR, προσθέτοντας ότι είναι δυνατό να εξαπατηθούν τέτοιοι αλγόριθμοι.
Ωστόσο, οι New York Times επικαλέστηκαν τον υπεύθυνο προστασίας προσωπικών δεδομένων της Apple, Erik Neuenschwander, ο οποίος είπε ότι αυτά τα χαρακτηριστικά δεν θα σημαίνουν τίποτα διαφορετικό για τους τακτικούς χρήστες.
Εάν αποθηκεύετε μια συλλογή υλικού CSAM, ναι, αυτό είναι κακό για εσάς, είπε στη δημοσίευση.
Ενημερωτικό δελτίο| Κάντε κλικ για να λάβετε τις καλύτερες επεξηγήσεις της ημέρας στα εισερχόμενά σας
Έχουν παρόμοιες τεχνολογίες άλλες μεγάλες εταιρείες τεχνολογίας;
Ναί. Στην πραγματικότητα, η Apple εισέρχεται σχετικά καθυστερημένα στη σκηνή, καθώς η Microsoft, η Google και το Facebook έχουν ειδοποιήσει τις υπηρεσίες επιβολής του νόμου σχετικά με εικόνες CSAM. Η Apple έχει μείνει πίσω επειδή οποιαδήποτε τέτοια τεχνολογία θα ήταν αντίθετη με την πολυδιαφημισμένη δέσμευσή της για το απόρρητο των χρηστών. Ως αποτέλεσμα, το 2020, όταν το Facebook ανέφερε 20,3 εκατομμύρια παραβιάσεις CSAM στο NCMEC, η Apple μπορούσε να αναφέρει μόνο 265 περιπτώσεις, ανέφεραν οι New York Times.
που έχει περισσότερα χρήματα batman ή ironman
Μόλις τώρα μπόρεσε να βρει το τεχνολογικό sweetspot για να το κάνει αυτό χωρίς να επηρεάσει τους τακτικούς χρήστες ή τουλάχιστον να τους τρομάξει. Ωστόσο, όπως έδειξε η αρχική αντίδραση, εξακολουθεί να είναι ένα τεντωμένο σχοινί.
Μοιράσου Το Με Τους Φίλους Σου: