Connect with us

Tecnologia

Apple demandada por Virginia Occidental por supuestamente permitir la distribución de CSAM a través de iCloud

Published

on

Apple demandada por Virginia Occidental por supuestamente permitir la distribución de CSAM a través de iCloud


El Fiscal General de Virginia Occidental, JB McCuskey, anunció hoy una demanda contra Apple, acusando a la compañía de permitir a sabiendas que iCloud se utilizara para distribuir y almacenar material de abuso sexual infantil (CSAM). McCuskey dice que Apple ha optado por “no hacer nada al respecto” durante años.

“Preservar la privacidad de los depredadores infantiles es absolutamente imperdonable. Y, lo que es más importante, viola la ley de Virginia Occidental. Dado que Apple hasta ahora se ha negado a controlarse y a hacer lo moralmente correcto, presento esta demanda para exigir que Apple cumpla la ley, informe sobre estas imágenes y deje de volver a victimizar a los niños al permitir que estas imágenes se almacenen y compartan”, dijo el Fiscal General JB McCuskey.

Según la demanda [PDF]Apple se ha descrito a sí misma como la “mejor plataforma para distribuir pornografía infantil” internamente, pero envía muchos menos informes sobre CSAM que sus pares como Google y Meta.

En 2021, Apple anunció nuevas funciones de seguridad infantil, incluido un sistema que detectaría CSAM conocido en imágenes almacenadas en Fotos de iCloud. Después de la reacción de los clientes, grupos de derechos digitales, defensores de la seguridad infantil e investigadores de seguridad, Apple decidió abandonar sus planes para la detección de CSAM en ‌iCloud Photos‌.

“Los niños pueden estar protegidos sin que las empresas revisen sus datos personales, y continuaremos trabajando con gobiernos, defensores de los niños y otras empresas para ayudar a proteger a los jóvenes, preservar su derecho a la privacidad y hacer de Internet un lugar más seguro para los niños y para todos nosotros”, dijo Apple al anunciar que no implementaría la función.

Apple explicó más tarde que la creación de una herramienta para escanear datos privados de ‌iCloud‌ “crearía nuevos vectores de amenazas para que los ladrones de datos los encuentren y exploten”.

El Fiscal General de Virginia Occidental dice que Apple ha eludido su responsabilidad de proteger a los niños bajo el pretexto de la privacidad del usuario, y que la decisión de Apple de no implementar tecnología de detección es una elección, no una supervisión pasiva. La demanda sugiere que, dado que Apple tiene control de extremo a extremo sobre el hardware, el software y la infraestructura de la nube, no puede afirmar ser un “conducto pasivo e inconsciente de CSAM”.

La demanda busca daños punitivos y medidas cautelares que exijan a Apple implementar medidas efectivas de detección de CSAM.

Apple también fue demandada en 2024 por su decisión de abandonar la detección de CSAM. Una demanda que representa a un grupo potencial de 2.680 víctimas dijo que el hecho de que Apple no implementara herramientas de monitoreo CSAM ha causado daños continuos a las víctimas. Esa demanda busca 1.200 millones de dólares.

Nota: Debido a la naturaleza política o social de la discusión sobre este tema, el hilo de discusión se encuentra en nuestro foro de Noticias Políticas. Todos los miembros del foro y visitantes del sitio pueden leer y seguir el hilo, pero las publicaciones están limitadas a miembros del foro con al menos 100 publicaciones.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Copyright © 2023 DESOPINION.COM