Opinión
CIENCIA Y TECNOLOGÍA
9 min de lectura
¿Quién debería pagar por el daño causado por el uso de redes sociales por parte de los niños?
De Türkiye a Australia, un nuevo giro en las regulaciones refleja una visión compartida: la supervisión parental, por sí sola, ya no basta para prevenir los daños que las redes sociales causan en la infancia.
¿Quién debería pagar por el daño causado por el uso de redes sociales por parte de los niños?
En todo el mundo, los gobiernos toman medidas para regular el uso de las redes sociales por parte de los niños / AP
hace 9 horas

El impulso global para regular el uso de las redes sociales por parte de niños y niñas está desplazando el foco de la responsabilidad, que ya no recae únicamente en el control parental, sino también en las plataformas diseñadas para lucrarse con la atención infantil.

En todo el mundo, a medida que los gobiernos avanzan en la regulación del uso de las redes sociales por parte de menores, el debate sobre el daño digital atraviesa una transformación de fondo.

De Australia al Reino Unido, y de Noruega a Türkiye, las normativas que se están elaborando en numerosos países convergen en una misma idea: los perjuicios derivados del uso de redes sociales por parte de niños y niñas no pueden prevenirse únicamente mediante la supervisión familiar.

La responsabilidad debe compartirse con las plataformas digitales que diseñan, gestionan y obtienen beneficios de estos entornos en línea.

Este giro no exime a padres, madres ni a las autoridades públicas de su papel. Las familias y los Estados siguen siendo actores clave en la protección de la infancia.

Sin embargo, los gobiernos están adoptando una postura cada vez más clara y firme: la responsabilidad debe ampliarse a las plataformas que diseñan, optimizan y comercializan los entornos digitales.

Al igual que otros usuarios, los niños y niñas no se limitan a “usar” las redes sociales. Son guiados de forma constante, incentivados y retenidos dentro de las plataformas por infraestructuras optimizadas para la maximización del beneficio.

Los mecanismos de desplazamiento infinito, los sistemas algorítmicos de recomendación y los bucles de recompensa están diseñados deliberadamente para sostener la economía de la atención.

Bajo estas circunstancias, esperar que los padres sean la única fuerza contraria y que enfrenten las máquinas de la economía de la atención valoradas en billones de dólares no es ni realista ni justo.

Un cuerpo sustancial de investigación académica multidisciplinaria sobre niños y adolescentes muestra que el uso excesivo de redes sociales está fuertemente vinculado con trastornos de ansiedad, depresión, problemas de sueño, déficits de atención, dismorfia corporal relacionada con contenido visual filtrado y trastornos alimentarios.

RelacionadoTRT Español - Cómo la “ilusión de empatía” de la IA lleva a los jóvenes a usarla como terapeuta pese a los riesgos

Capitalismo de vigilancia

El concepto de “capitalismo de vigilancia” de Shoshana Zuboff proporciona un marco poderoso para entender por qué la responsabilidad está desplazándose hacia niveles superiores.

Las plataformas de redes sociales recopilan y analizan de forma sistemática el comportamiento de los usuarios, predicen acciones futuras y monetizan ese conocimiento mediante publicidad dirigida y técnicas de orientación conductual.

Dentro de este sistema, los niños y niñas no son solo usuarios vulnerables, sino también valiosos sujetos de datos.

Cada deslizamiento de pantalla, cada pausa, cada “me gusta” y cada reacción emocional genera un excedente conductual.

En el caso de menores cuyo desarrollo cognitivo y emocional aún está en formación, esta extracción de datos tiene consecuencias mucho más profundas y duraderas.

Los algoritmos no solo aprenden qué les gusta a los niños; también moldean aquello que acabarán deseando.

Por ello, las regulaciones más recientes buscan cada vez más imponer límites a la recopilación de datos de menores, prohibir la publicidad dirigida, exigir transparencia en los sistemas de recomendación y sancionar los diseños arquitectónicos que maximizan la participación.

Relacionado¿Está el uso excesivo de las redes sociales vinculado a una peor salud? Los investigadores dicen que sí - TRT Español - TRT Español

Tecnofeudalismo

La idea de “tecnofeudalismo” de Yanis Varoufakis ofrece una perspectiva complementaria para entender esta asimetría de poder.

Las plataformas digitales se parecen cada vez más a propiedades feudales que a empresas capitalistas tradicionales.

Los usuarios no son propietarios de estos espacios digitales. En su lugar, reciben un acceso condicionado, sujeto a normas fijadas de manera unilateral por los dueños de las plataformas.

Los niños crecen dentro de estos ecosistemas gobernados privadamente.

Su socialización, tiempo de ocio y cada vez más sus experiencias educativas se moldean dentro de sistemas en gran medida opacos gobernados por algoritmos en lugar de supervisión democrática.

En este escenario, la autoridad parental parte de una desventaja estructural frente a una autoridad algorítmica continua, invisible y escalable.

Desde esta perspectiva, culpar a las familias equivale a responsabilizar a siervos atados a la tierra por las condiciones de propiedad de un feudo.

Los Estados que reconocen esta asimetría de poder están desplazando progresivamente el foco desde los “súbditos” hacia los “señores”.

La prohibición del uso de redes sociales para menores de 16 en Australia, en vigor desde el 10 de diciembre de 2025, es uno de los ejemplos más visibles de esta transformación.

Con excepciones limitadas, como YouTube Kids, las plataformas están obligadas a implantar sistemas estrictos de verificación de edad. El incumplimiento puede acarrear multas de hasta 32 millones de dólares.

La afirmación del exdirectivo de Meta Stephen Scheeler, quien señaló que la empresa podría ingresar esa cantidad en menos de dos horas, ha abierto un serio debate sobre el verdadero efecto disuasorio de estas sanciones.

En el Reino Unido, la Ley de Seguridad en Línea otorga al regulador de medios Ofcom la facultad de multar a las empresas con hasta el 10% de su facturación global.

El primer ministro Keir Starmer, entre muchos otros actores políticos, ha declarado abiertamente que el tiempo excesivo frente a la pantalla amenaza el bienestar infantil. 

Las decisiones del Parlamento Europeo que establecen una edad mínima de 16 años para el uso de redes sociales y 13 para herramientas de inteligencia artificial y plataformas de video también reflejan esta tendencia.

Mientras Francia debate una prohibición total para menores de 15 y una suerte de “toque de queda digital”, España prepara regulaciones que exigirán el consentimiento parental para usuarios menores de 16.

Noruega, por su parte, ha reconocido la ineficacia de las restricciones actuales y está desarrollando mecanismos de supervisión más robustos.

En Estados Unidos, el umbral de 13 años centrado en la protección de datos sigue vigente, aunque las restricciones más estrictas impulsadas a nivel estatal se enfrentan a impugnaciones legales basadas en la libertad de expresión.

China aplica uno de los controles digitales más estrictos del mundo en relación con la infancia. Los menores de 14 tienen un límite diario de 40 minutos de tiempo de pantalla y el acceso digital está completamente restringido entre las 10:00 de la noche y las 6:00 de la mañana, hora local.

Aunque TikTok supera los 500 millones de usuarios a escala global, en China opera bajo una versión separada, Douyin, que utiliza algoritmos distintos y concede mayor peso a los contenidos educativos.

El presidente francés Emmanuel Macron ha afirmado públicamente que, mientras China utiliza TikTok para debilitar la capacidad de atención de los niños en el resto del mundo, orienta a los suyos a través de Douyin con contenidos más disciplinados y educativos.

Esta distinción ilustra que las plataformas de redes sociales funcionan no solo como entidades comerciales sino también como instrumentos de poder blando cultural.

El hecho de que las plataformas occidentales estén prohibidas en China refuerza la idea de que los Estados ven cada vez más estos entornos digitales no como simples actores del libre mercado, sino como infraestructuras estratégicas.

Big Tech y lavado ético

Aunque las grandes empresas tecnológicas, conocidas como Big Tech, han introducido algunas de estas medidas, en términos generales siguen oponiéndose a este tipo de restricciones.

Tras la introducción de la prohibición, el primer ministro australiano Anthony Albanese declaró que más de 4,7 millones de cuentas de redes sociales pertenecientes a usuarios menores de 16 años habían sido desactivadas, eliminadas o restringidas.

Los representantes de Big Tech sostienen que las tecnologías de verificación de edad amenazan la privacidad, vulneran los derechos de la infancia e incluso podrían reducir la seguridad en línea.

Sin embargo, estas objeciones suelen ocultar una preocupación más profunda: el riesgo de perder una base de usuarios extraordinariamente rentable, que genera datos y contenidos de forma gratuita.

El director ejecutivo de Meta, Mark Zuckerberg; el responsable de Instagram, Adam Mosseri; y el consejero delegado de Snapchat, Evan Spiegel, se enfrentan a juicios en distintas demandas que los acusan de haber diseñado productos adictivos pese a contar con evidencias del daño causado a usuarios jóvenes.

Mientras tanto, los compromisos voluntarios en materia de ética y seguridad adoptados por las plataformas se asemejan cada vez más a lo que puede definirse como “lavado ético”: una dilución de responsabilidades que no altera los modelos de negocio de fondo.

Políticas de protección infantil en Türkiye

El debate sobre la presencia de niños y niñas en los entornos digitales en Türkiye refleja sensibilidades locales, pero se alinea en gran medida con las tendencias regulatorias globales.

Un proyecto de informe titulado "Amenazas y Riesgos que Esperan a Nuestros Niños en Entornos Digitales", preparado por el Subcomité de Derechos del Niño de la Comisión de Investigación de Derechos Humanos de la Gran Asamblea Nacional de Türkiye, esboza el marco de este enfoque.

El informe incluye propuestas como restricciones de acceso nocturno para menores de 18 años, una prohibición de redes sociales para menores de 15 años, límites en dispositivos digitales en entornos escolares, fortalecimiento de los servicios de asesoramiento y aplicaciones especiales de tarjetas SIM para niños.

La ministra de Familia y Servicios Sociales, Mahinur Özdemir Göktaş, ha anunciado que los preparativos legislativos para una regulación de redes sociales que cubra a niños menores de 15 años pronto serán llevados ante el Parlamento.

La justificación detrás de la regulación incluye niveles crecientes de depresión, ansiedad, trastornos de conducta y el riesgo de contacto con redes criminales a través de plataformas digitales.

La ministra Göktaş ha declarado que los niños no serán tratados como recursos comerciales o reservas de datos por las plataformas de redes sociales. En lugar de constituir una intervención contra la libertad de expresión, estas medidas se presentan como una política pública estratégica dirigida a proteger a los niños de los riesgos estructurales del ecosistema digital.

Dentro de este marco, la plataforma digital "Çocuklar Güvende" (Los Niños Están Seguros) proporciona mecanismos de orientación y notificación para niños y padres.

Las autoridades insisten especialmente en que la lucha contra los contenidos dañinos debe ser proactiva y asumida por las propias plataformas, y no depender únicamente de intervenciones reactivas.

Los niños no son el único grupo expuesto al daño digital. Los adultos con baja alfabetización digital y, en particular, las personas mayores, se muestran cada vez más vulnerables a la desinformación, la polarización emocional y las prácticas de manipulación conductual impulsadas por la orientación algorítmica.

Por ello, la regulación de las plataformas no es solo una medida pedagógica de protección infantil.

También constituye una batalla por reforzar la esfera pública digitalizada frente a la desinformación, liberar los procesos democráticos de la captura algorítmica y preservar la cohesión social.

Si las plataformas diseñan los entornos digitales, entrenan los algoritmos y se benefician de forma sistemática de la economía de la atención, la responsabilidad no puede recaer únicamente en individuos, familias o preferencias de usuario.

La responsabilidad debe ser compartida y el poder debe quedar sometido a supervisión pública.


FUENTE:TRT Español y agencias