Tecnologia
Un SOS para navegar seguro en las redes
La creciente discusión sobre la adicción de los jóvenes adolescentes a las plataformas de redes sociales y la restricción del uso de los celulares y dispositivos digitales portátiles en los colegios está creciendo exponencialmente, como bien lo puso de presentar el editorial de este diario el pasado sábado. A finales del 2025, Australia se convirtió en el primer país en restringir el uso de redes sociales a los menores de 16 años. El ejemplo lo están siguiendo principalmente países europeos como Portugal, Francia y España.
El jefe del Ejecutivo español, Pedro Sánchez, cuando anunció la medida dijo: “Hay que tomar el control de las redes porque se está haciendo caja con la salud mental”. La respuesta de Elon Musk, dueño de la red social X, no se hizo esperar y lo llamó “tirano”, “traidor al pueblo español” y “fascista”.
Ese tira y afloje muestra de manera explícita la tensión que existe entre las grandes plataformas de tecnología y los gobiernos que tratan de regular de alguna manera sus actuaciones. Es en ese marco que cobra especial importancia la noticia de que Meta (con todo su ecosistema Instagram, Facebok, Threads y WhatsApp), TikTok, Snap, Discord, Pinterest, Twitch y Roblox decidieran unirse a una iniciativa que propone una evaluación externa de sus políticas y el diseño de mecanismos para proteger la salud mental de los adolescentes entre los 13 y 19 años.
El proyecto, que por ahora solo aplica para Estados Unidos, pero puede tener consecuencias a nivel mundial dado el carácter transnacional de estas compañías, se denomina muy apropiadamente Safe Online Standard (SOS) y tiene el respaldo, para todos los efectos, de la Coalición de Salud Mental (MCH), una entidad integrada por profesionales de la salud y organizaciones del sector privado que busca “desestigmatizar la salud mental y empoderar el acceso a recursos vitales y el apoyo a toda la comunidad”.
El compromiso por parte de las compañías tecnológicas es que entregarán “voluntariamente” la documentación sobre sus normas de uso, funciones y las características de sus servicios. La información que proporcionarán será evaluada por diversas organizaciones, entre ellas universidades, y organizaciones como Internet Matters y Child Mind Institute, entre otras con el apoyo de organizaciones de jóvenes y madres y padres de familia.
De acuerdo con una tabla de criterios de evaluación que incluye algunos muy críticos como los esquemas de gobernanza, programas de alfabetización digital y el diseño de los algoritmos, se establecen tres categorías que serán identificadas por un código de colores.
Azul, cuando cumple con los requisitos de seguridad. Esto quiere decir que la plataforma emplea filtros para proteger a los usuarios, incluye programas de alfabetización digital y estrategias de moderación de contenidos, entre otras características.
Amarilla: cumple parcialmente. Es decir que sus políticas de autorregulación y de protección son poco claras o de difícil acceso.
Rojo: Están por debajo de los estándares. Son aquella que definitivamente no bloquean de manera confiable los contenidos dañinos o que simplemente no tienen políticas claras de transparencia.
Si bien es positiva la apertura por parte de estas compañías a que se revisan sus prácticas, sobre todo en lo que tienen que ver con su incidencia en la salud mental de las personas jóvenes (entre 13 y 19 años), EL TIEMPO consultó a varios colombianos que señalan los pros y contras de este nuevo escenario.
La psicóloga y consultora Viviana Quintero, experta en crianza digital y protección de niñez en línea, incluida en el Top 50 de las mujeres en el tema de Ciberseguridad, dice: “Hay puntos que me parecen fuertes y positivos y otros que vale la pena revisar. El hecho de que existe una evaluación externa e independiente es una cosa absolutamente maravillosa, porque venimos de un contexto absoluto de autorregulación y esto puede ser un tránsito a un escenario de corregulación. También es importante que se enfoque en la protección infantil, básicamente porque es allí donde están los principales reclamos y dificultades con estas plataformas”.
En ese sentido, Alejandro Castañeda, Jefe del Centro de Internet Seguro – Viguías de Red PaPaz, muestra unos datos que hacen saltar las alarmas en el país. “En Colombia contamos con datos preocupantes: 1 de cada 3 niñas, niños y adolescentes ha intentado navegar menos tiempo en internet sin éxito, según un estudio realizado por la Universidad Nacional y Aulas en Paz en 2024. El mismo estudio indica que aproximadamente 1 de cada 5 niñas, niños y adolescentes en Colombia han visto en redes sociales formas de hacerse daño o herirse a sí mismo, formas de quitarse la vida, mensajes de odio contra ciertos grupos o imágenes violentas sobre cómo lastimar a otros. real En nuestra línea de reporte Te Protejo, donde los ciudadanos pueden reportar cualquier violencia dirigida a niñas, niños y adolescentes, recibimos en 2025 más de 55.000 reportes: 9 de cada 10 fueron situaciones de violencia digital”.
Las redes podrán ser evaluadas por un tercer externo. Crédito: EFE Fotógrafo: Foto:EFE
Mauricio Vera, integrante de la Comisión Nacional de Regulación, coincide en destacar el aspecto positivo de esta iniciativa, pero también señala sus limitaciones. “Es una apertura a la información, digamos que estas compañías siempre han tenido una parte disponible a consulta pública y otra que no lo es tanto. Aquí encontramos que participan las compañías más grandes del sector, y eso es bueno destacarlo. Pero la pregunta que queda, es: ¿hasta dónde están dispuestos a facilitar esa información que no es pública, la que tiene el ‘core’ de la mecánica de funcionamiento? Tengo mis reservas sobre eso porque la autorregulación siempre ha sido una de las banderas de esas compañías”.
Quintero también destaca la simplicidad de la propuesta de cara al uso de los usuarios. “Esa tabla podría permitirle a una familia oa una institución educativa, tomar decisiones muy rápidamente porque son tres colores que pueden funcionar como unos sellitos de calidad. También se destaca que el enfoque no solo evalúe el contenido de las aplicaciones sino que este va un poquito más allá porque va incluye también el diseño. Uno de los retos más grandes que tenemos en este momento en el tema de protección infantil en línea es todo lo relacionado con el diseño persuasivo y los patrones oscuros que han comenzado a utilizar las diferentes plataformas para lograr que los usuarios se enganchen y estén en línea por más tiempo”.
Los expertos colombianos plantean cierto escepticismo frente al resultado final de este proyecto. Castañeda, de Red PaPaz, asegura: “Tomamos esta noticia con mucha precaución. En primer lugar, la noticia menciona que hay un interés de las plataformas en ser ‘evaluadas’ bajo los estándares, pero no se menciona un compromiso claro en poder presentar sus resultados en sus servicios. Esto nos lleva a pensar que los resultados de esta evaluación pueden no ser implementados o incluso nunca llegar a conocer sus resultados. Como hasta ahora ha pasado, las redes sociales no han permitido que los datos y la evidencia se conozcan, siendo incluso demandados en la Unión Europea por eso, nos preocupa que no exista un mecanismo claro para que organizaciones, expertos y autoridades de América Latina podamos participar en la definición de estos estándares o incorporar nuestras preocupaciones. Tampoco hay certeza de que los eventuales resultados se apliquen en Colombia.
¿Autorregulación?
Y es que el vacío legal es grande y aunque se han hecho esfuerzos el gran obstáculo es la llamada autorregulación. Mauricio Vera recuerda que las grandes compañías se protegen diciendo que las normas de uso son públicas y están en la web, donde se pueden consultar libremente: “allí hay unos criterios de restricción y de moderación para que los padres los usen, eso es cierto, pero la realidad es diferente porque pocos padres de familia los usan. El argumento de la autorregulación tiene que ver con que las plataformas le trasladan el problema al usuario, pues son ellos los que deben controlar el uso de las redes, pero resulta que estamos hablando de niños y niñas. Es decir, por más que el semáforo salga en rojo si no hay una intervención regulatoria de los estados, pues eso no va a generar un impacto positivo”.
Otro problema para evaluar el impacto en Colombia es la dificultad para pedir cuentas. “Si uno le pide información a una plataforma en Colombia, no es posible porque no tienen oficina en el país, son transnacionales y existe hoy una geopolítica internacional muy fuerte frente a la prevención de los riesgos que tiene el entorno digital”.
Dentro de los avances que se están dando en Colombia, Vera destaca la Ley 2489 de entornos digitales seguros, del año pasado, que tiene la misma premisa “cómo hacemos una política pública que haga que el uso de los entornos digitales por parte de los niños, niñas y adolescentes sea seguro”.
Castañeda subraya los vacíos que tenemos en el país en materia de legislación. “Desafortunadamente, desde Red PaPaz vemos que hay un vacío muy grande en las obligaciones que deben tener las redes sociales y plataformas de contenido para que una iniciativa como estas sea replicable. Esto nos deja en un escenario en donde vemos que si llegan a llegar estas iniciativas al país, serán si las plataformas voluntariamente lo hacen. Consideramos que esto no debería por qué ser así. Colombia está en mora de contar con una política pública que permite crear las condiciones legales para responsabilizar a las plataformas de crear un entorno digital seguro para niñas, niños y adolescentes. Estos estándares no deben ser opcionales y permanecer en las grandes plataformas internacionales, deben ser la obligación de los productos y servicios digitales a los cuales las personas menores de 18 años tienen posibilidad de acceder”.
Por su parte, Viviana Quintero destaca los aprendizajes que se pueden derivar de esta iniciativa. “Aun cuando la regulación se haga desde Estados Unidos nos da una serie de parámetros para actuar. Pero en general, en el sur global, cuando los países del norte han accionado con iniciativas regulatorias o sancionatorias, las desarrollan plataformas las medidas de protección o de mitigación solo para esos países”. Pero resalta que este tipo de iniciativas ayudan a construir un escenario donde se pueda pensar en formas de regulación para presionar a las plataformas a que “esas de protección las medidas comiencen a bajar a los países como el nuestro”.
