Què cal saber sobre les proteccions de seguretat infantil d'Apple

Què cal saber sobre les proteccions de seguretat infantil d'Apple

Apple ha anunciat recentment noves proteccions de seguretat infantil que arribaran aquesta tardor amb la introducció d’iOS 15, iPadOS 15 i macOS Monterey.





A continuació veurem aquestes funcions de seguretat infantil ampliades i la tecnologia que hi ha darrere.





Exploració de material per abús sexual infantil

El canvi més notable és que Apple començarà a utilitzar la nova tecnologia per detectar imatges que representin imatges d'abús infantil emmagatzemades a iCloud Photos.





Aquestes imatges es coneixen com a Material d'abús sexual infantil, o CSAM, i Apple n'informarà casos al Centre Nacional de Nens Desapareguts i Explotats. El NCMEC és un centre d'informes per a CSAM i treballa amb les agències d'aplicació de la llei.

L’exploració CSAM d’Apple es limitarà als Estats Units al llançament.



el millor programari gratuït de mapes mentals 2019

Apple diu que el sistema utilitza criptografia i que ha estat dissenyat pensant en la privadesa. Les imatges s’escanegen al dispositiu abans de penjar-les a iCloud Photos.

Segons Apple, no cal que us preocupeu perquè els empleats d’Apple vegin les vostres fotos reals. En canvi, el NCMEC proporciona a Apple els hashes d'imatges de les imatges CSAM. Un hash pren una imatge i retorna una cadena llarga i única de lletres i números.





Apple pren aquests hashs i transforma les dades en un conjunt il·legible de hash emmagatzemat de forma segura en un dispositiu.

Relacionat: Com iOS 15 protegeix la privadesa del vostre iPhone millor que mai





Abans que la imatge se sincronitzi amb iCloud Photos, es comprova amb les imatges CSAM. Amb una tecnologia criptogràfica especial (intersecció de conjunts privats), el sistema determina si hi ha coincidències sense revelar cap resultat.

Si hi ha una coincidència, un dispositiu crea un val de seguretat criptogràfic que codifica la coincidència juntament amb més dades encriptades sobre la imatge. Aquest val es penja a iCloud Photos amb la imatge.

A menys que un compte d'iCloud Photos superi un llindar específic de contingut CSAM, el sistema garanteix que Apple no pugui llegir els vals de seguretat. Això és gràcies a una tecnologia criptogràfica anomenada compartició secreta.

Segons Apple, el llindar desconegut proporciona una gran precisió i garanteix menys d'un d'un en un bilió de possibilitats de marcar un compte de manera incorrecta.

Quan se supera el llindar, la tecnologia permetrà a Apple interpretar els vals i les imatges CSAM coincidents. A continuació, Apple revisarà manualment cada informe per confirmar la coincidència. Si es confirma, Apple desactivarà el compte d'un usuari i, a continuació, enviarà un informe al NCMEC.

Hi haurà un procés d’apel·lació per restablir-la si un usuari creu que la tecnologia ha marcat erròniament el seu compte.

Si teniu problemes de privadesa amb el nou sistema, Apple ha confirmat que no s’analitzaran fotos mitjançant la tecnologia de criptografia si desactiveu iCloud Photos. Podeu fer-ho dirigint-vos a Configuració> [El vostre nom]> iCloud> Fotos .

Hi ha alguns inconvenients en desactivar iCloud Photos. Totes les fotos i vídeos s’emmagatzemaran al dispositiu. Això pot causar problemes si teniu moltes imatges i vídeos i un iPhone anterior amb poc emmagatzematge.

A més, les fotos i els vídeos capturats al dispositiu no seran accessibles en altres dispositius Apple mitjançant el compte d'iCloud.

Relacionat: Com accedir a iCloud Photos

Apple explica més sobre la tecnologia que s’utilitza en la detecció de CSAM en un llibre blanc PDF . També podeu llegir un fitxer Preguntes freqüents sobre Apple amb informació addicional sobre el sistema.

A les PMF, Apple assenyala que el sistema de detecció CSAM no es pot utilitzar per detectar res que no sigui CSAM. La companyia també diu que als Estats Units i en molts altres països la possessió de les imatges CSAM és un delicte i que Apple està obligada a informar les autoritats.

La companyia també diu que rebutjarà qualsevol demanda del govern per afegir una imatge que no sigui CSAM a la llista de hash. També explica per què un tercer no pot afegir imatges que no són CSAM al sistema.

A causa de la revisió humana i del fet que els hash utilitzats provenen d’imatges CSAM conegudes i existents, Apple diu que el sistema va ser dissenyat per ser precís i evitar que es denunciessin al NCMEC problemes relacionats amb altres imatges o usuaris innocents.

Facebook Messenger va piratejar com solucionar-ho

Protocol addicional de seguretat de comunicacions als missatges

Una altra característica nova s’afegiran als protocols de seguretat a l’aplicació Missatges. Ofereix eines que avisaran els nens i els seus pares quan envien o reben missatges amb fotos sexualment explícites.

Quan es rebi un d’aquests missatges, la foto es difuminarà i també es advertirà al nen. Poden veure recursos útils i se’ls indica que està bé si no veuen la imatge.

La funció només serà per a comptes configurats com a famílies a iCloud. Els pares o tutors hauran d’optar per habilitar la funció de seguretat de la comunicació. També poden optar per rebre notificacions quan un menor de 12 anys envii o rebi una imatge sexualment explícita.

Per als nens de 13 a 17 anys, no es notifica als pares. Però es advertirà al nen i se li preguntarà si vol veure o compartir una imatge sexualment explícita.

Relacionat: Com iOS 15 utilitza la intel·ligència per fer el vostre iPhone més intel·ligent que mai

Missatges utilitza l'aprenentatge automàtic al dispositiu per determinar si un fitxer adjunt o una imatge és sexualment explícit. Apple no rebrà accés als missatges ni al contingut de la imatge.

La funció funcionarà tant per als missatges SMS i iMessage comuns i no està vinculada a la funció d’escaneig CSAM que hem detallat anteriorment.

Finalment, Apple ampliarà les directrius per a les funcions de Siri i Search per ajudar els nens i els pares a mantenir-se segurs en línia i rebre ajuda en situacions de seguretat. Apple va assenyalar un exemple en què els usuaris que pregunten a Siri com poden denunciar CSAM o explotació infantil se'ls proporcionaran recursos sobre com presentar un informe a les autoritats.

Les actualitzacions arribaran a Siri i Search quan algú realitzi consultes de cerca relacionades amb CSAM. Una intervenció explicarà als usuaris que l'interès pel tema és perjudicial i problemàtic. També mostraran recursos i socis per ajudar-vos a obtenir ajuda amb el problema.

Més canvis amb el darrer programari d'Apple

Desenvolupades conjuntament amb experts en seguretat, les tres noves funcions d’Apple estan dissenyades per ajudar a protegir els nens en línia. Tot i que algunes funcions poden causar preocupació en alguns cercles enfocats a la privadesa, Apple ha estat conscient de la tecnologia i de com equilibrarà els problemes de privadesa amb la protecció de la infància.

Compartir Compartir Tweet Correu electrònic 15 funcions ocultes a iOS 15 i iPadOS 15 que Apple no va esmentar a WWDC

Ja heu sentit a parlar dels canvis importants a iOS 15, però aquí teniu tots els canvis ocults que Apple va deixar fora de la WWDC.

Llegiu a continuació
Temes relacionats
  • IPhone
  • Mac
  • poma
  • Privadesa del telèfon intel·ligent
  • Criança i tecnologia
Sobre l'autor Brent Dirks(193 articles publicats)

Nascut i crescut a l'assolellat oest de Texas, Brent es va graduar a la Texas Tech University amb una llicenciatura en periodisme. Fa més de cinc anys que escriu sobre tecnologia i gaudeix de totes les coses d’Apple, accessoris i seguretat.

Més de Brent Dirks

Subscriu-te al nostre butlletí

Uniu-vos al nostre butlletí per obtenir consells tècnics, ressenyes, llibres electrònics gratuïts i ofertes exclusives.

Feu clic aquí per subscriure-us