Connect with us

Tecnologia

Apple cambia las reglas para los menores de edad: aplicaciones para iPhone, iPad y Mac

Published

on

Apple cambia las reglas para los menores de edad: aplicaciones para iPhone, iPad y Mac


La introducción de la verificación de edad global por parte de Apple tiene consecuencias para los fundadores. REUTERS/Lucas Jackson

Apple ha puesto en marcha un sistema global de verificación de edad en su App Store, en respuesta directa al endurecimiento de las regulaciones internacionales que buscan proteger a niños y adolescentes en entornos digitales.

Con esta medida, Apple no solo fortalece su cumplimiento normativo, sino que también establece una referencia obligada para otras plataformas tecnológicas que operan en mercados donde la protección infantil es prioridad legal.

El despliegue de las herramientas de verificación de edad en el ecosistema de Apple no es un movimiento aislado, sino parte de una estrategia adaptativa a los marcos regulatorios que han surgido en los principales mercados internacionales.

Apple ha puesto en marcha
Apple ha puesto en marcha un sistema global de verificación de edad en su App Store. (Manzana)

Europa ha liderado este cambio con normativas como la Digital Services Act (DSA) y el UK Age Appropriate Design Code, que exigen la implementación de verificaciones de edad y el diseño de servicios que priorizan el bienestar de los menores. Las sanciones por incumplimiento pueden incluir multas millonarias e incluso el bloqueo de aplicaciones en regiones clave.

Apple ha implementado mecanismos técnicos concretos para cumplir con estas exigencias regulatorias y, al mismo tiempo, mantener la experiencia de usuario. Entre ellos destacan:

  • Bloqueo preventivo de descargas: Los usuarios que no cumplan con la edad mínima establecida para una aplicación no podrán descargarla desde la App Store.
  • Verificación en el ID de Apple: Al crear una cuenta, la edad del usuario se registra y se utiliza para aplicar restricciones automatizadas.
Face ID es la tecnología
Face ID es la tecnología de reconocimiento facial de Apple que permite desbloquear dispositivos y autorizar acciones con solo mirar el iPhone o iPad. (Infobae América)
  • Controles parentales mejorados: Herramientas como Screen Time y Family Sharing han sido reforzadas, dando a los padres más control sobre el acceso de sus hijos a distintos contenidos.
  • Clasificación de contenido detallada: Apple trabaja junto a los desarrolladores para asegurar que la declaración de contenido y audiencia objetivo sea precisa y esté alineada con las nuevas normativas.

Estas verificaciones operan a nivel de sistema operativo, lo que exime a las aplicaciones individuales de implementar sus propios sistemas de control para cumplir con los requisitos básicos de Manzana. Sin embargo, en algunos mercados, la legislación puede exigir validaciones adicionales.

La introducción de la verificación de edad global por parte de Apple tiene consecuencias inmediatas para fundadores y equipos de desarrollo de aplicaciones. móviles.

Apple colabora con desarrolladores para
Apple colabora con desarrolladores para garantizar una declaración precisa de contenido y público objetivo. REUTERS/Abdul Saboor

Clasificar correctamente el contenido en App Store Connect se ha vuelto fundamental; errores en la categorización pueden traducirse en rechazos de actualizacionesremoción de la tienda o acciones legales. Es esencial que los responsables dediquen tiempo a revisar y responder de forma precisa los cuestionarios de clasificación por edad.

Asimismo, la segmentación de la audiencia se vuelve un reto para aquellas aplicaciones que buscan atraer tanto a menores como a adultos. Algunas startups están optando por desarrollar versiones diferenciadas de sus productos, una dirigida a menores y otra a adultos, con el objetivo de cumplir con las nuevas reglas sin perder mercado.

Las principales plataformas de redes sociales han decidido someterse a una auditoría externa para evaluar su impacto en la salud mental de los adolescentes. Esta revisión, que estará a cargo de expertos independientes, surge en un contexto de creciente preocupación y presión social, política y legal sobre el bienestar de los jóvenes en internet.

Plataformas de redes sociales han
Plataformas de redes sociales han decidido someterse a una auditoría externa para evaluar su impacto en la salud mental. (Imagen Ilustrativa Infobae)

Meta (matriz de Facebook mi Instagram), junto a tiktok y Quebrarhan acordado colaborar con este proceso, permitiendo que especialistas revisen de forma detallada sus políticas y herramientas de protección dirigidas a usuarios adolescentes.

La evaluación utilizará un conjunto de aproximadamente 24 estándares diseñados por expertos en salud mental, enfocados en determinar qué tan efectivas son las de seguridad implementadas por las medidas de redes.

Entre los criterios a analizar se encuentran herramientas para limitar el tiempo de uso, métodos para desactivar el desplazamiento automático y sistemas que obligan a hacer pausas periódicas.

Las redes sociales bien usadas
Las redes sociales bien usadas permiten conectarse y aprender de otros rápidamente. (Imagen Ilustrativa Infobae)

También se revisarán las políticas sobre la exposición a contenidos sensibles, como los relacionados con el suicidio o las autolesiones, así como el nivel de transparencia y las acciones educativas sobre riesgos digitales.

Aquellas plataformas que superen la evaluación recibirán un sello distintivo de escudo azul; por el contrario, las que no alcancen los estándares serán señaladas por su incapacidad para bloquear contenidos perjudiciales.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Copyright © 2023 DESOPINION.COM