Low Cost-Fly

Trending News Updates

Una nueva función de seguridad de iMessage pide a los niños que informen sobre imágenes explícitas a Apple

Una nueva función de seguridad de iMessage pide a los niños que informen sobre imágenes explícitas a Apple


Apple está agregando una nueva función de seguridad infantil que permite a los niños enviar un informe a Apple cuando se les envían fotos o videos con desnudos, según el guardián. Después de revisar todo lo recibido, la empresa puede denunciar los mensajes a las autoridades.

La nueva función amplía la función Seguridad de la comunicación de Apple, que utiliza el escaneo en el dispositivo para detectar desnudez en fotos o videos recibidos a través de Mensajes, AirDrop o Contact Poster y difuminarlos. Además de difuminar la foto o el vídeo, Apple también muestra una ventana emergente con opciones para enviar mensajes a un adulto, obtener recursos de ayuda o bloquear el contacto.

Como parte de esta nueva función, que ahora se está probando en Australia con iOS 18.2, los usuarios también podrán enviar un informe a Apple sobre cualquier imagen o video con desnudos.

“El dispositivo preparará un informe que contiene las imágenes o vídeos, así como los mensajes enviados inmediatamente antes y después de la imagen o vídeo”. el guardián dice. “Incluirá la información de contacto de ambas cuentas y los usuarios podrán completar un formulario que describa lo sucedido”. A partir de ahí, Apple examinará el informe y podrá optar por tomar medidas como impedir que un usuario envíe iMessages o informar a las autoridades.

el guardián dice que Apple planea hacer que la nueva función esté disponible a nivel mundial, pero no especificó cuándo podría suceder. Apple no respondió de inmediato a una solicitud de comentarios.

En 2021, Apple anunció un conjunto de funciones de seguridad infantil que incluían escanear la biblioteca de fotos de iCloud de un usuario en busca de material de abuso sexual infantil y alertaría a los padres cuando sus hijos enviaran o recibieran fotos sexualmente explícitas. Después de que los defensores de la privacidad se pronunciaran en contra del plan, Apple retrasó el lanzamiento de esas funciones para volver a la mesa de dibujo y abandonó sus planes de escanear imágenes de abuso sexual infantil en diciembre de 2022.



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *

etretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretreretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretretr