Responsabilidad de las plataformas de redes sociales

Expertos estadounidenses advirtieron recientemente de una grave crisis de salud mental entre los jóvenes del país, una de cuyas principales causas son las redes sociales. La rápida e incontrolable difusión de noticias maliciosas y falsas en el ciberespacio plantea la cuestión de la responsabilidad jurídica de las empresas tecnológicas frente a los usuarios.
Fotografía: Reuters
Fotografía: Reuters

El uso inseguro de las redes sociales tiene consecuencias perjudiciales, sobre todo para los adolescentes y los niños. Según el Departamento de Salud y Servicios Humanos de Estados Unidos, el 95 por ciento de los jóvenes de este país utiliza las redes sociales, y hasta un tercio lo hace con frecuencia alarmante.

El Cirujano General de Estados Unidos, Vivek Murthy, subrayó que las plataformas de los medios sociales contienen información nociva para los niños, como autolesiones y suicidio.

Un nuevo estudio demuestra que el algoritmo de YouTube recomienda videos violentos e imágenes de armas de fuego a los menores. Según el banco británico TSB, el 80 por ciento de las estafas (en las categorías de suplantación de identidad, compra y fraude de inversión) provienen de plataformas en línea de Meta, incluidas Facebook, WhatsApp e Instagram.

Estas alarmantes estadísticas vuelven a poner sobre la mesa la cuestión de la responsabilidad de las plataformas en línea en el estricto control de los contenidos. Las grandes empresas tecnológicas obtuvieron beneficios excepcionales durante la epidemia de Covid-19. Pero también fue durante ese tiempo cuando los riesgos ocultos de la red se hicieron más que evidentes. Facebook tuvo que eliminar 1.300 millones de cuentas falsas solo entre octubre y diciembre de 2020.

Muchos países han puesto en marcha importantes medidas para controlar las plataformas virtuales tras tomar conciencia de las implicaciones y riesgos del ciberespacio. Utah se convirtió en el primer estado de Estados Unidos en aprobar una ley que obliga a los sitios web a reforzar los controles parentales para usuarios menores de 18 años en marzo de 2023. Debido a esta medida, los sitios de redes sociales están sometidos a una mayor presión para verificar la edad de sus miembros.

La Unión Europea (UE) impulsa la Ley de Servicios Digitales (DSA), con normas destinadas a prohibir la publicidad dirigida a niños o basada en datos sensibles como religión y sexo. Si no cumplen con la DSA, las empresas tecnológicas enfrentarán multas de hasta el seis por ciento de su facturación anual global. En Asia, en su calidad de presidente de la Asean en 2023, Indonesia hizo un llamado a los países de la región a estrechar la cooperación para combatir las noticias falsas.

La mayoría de las plataformas en línea están trabajando para mejorar la transparencia de la información, deshacerse de cuentas falsas y detener la propagación de desinformación en respuesta a la creciente presión gubernamental. Sin embargo, el hecho de que tantas personas sigan siendo víctimas de la ciberdelincuencia exige que las plataformas tomen medidas más decisivas y responsables.

La reciente decisión de Twitter de retirarse se ha retirado del código de buenas prácticas voluntario de la Unión Europea ha causado mucha controversia. Según funcionarios de la UE, el nivel de propagación de información errónea en Twitter está aumentando y causando molestias a los usuarios.

Al subrayar la importancia de regular estrictamente las plataformas en línea, el Comisario de Industria de la UE, Thierry Breton, afirmó que las operaciones a gran escala deben conllevar una gran responsabilidad. Las recientes sanciones económicas impuestas a redes sociales relacionadas con irregularidades demuestran que la fiabilidad de estas plataformas sigue siendo baja. Las empresas tecnológicas deben seguir aplicando políticas estrictas para construir un entorno en línea seguro para todos, como necesidad urgente en la nueva era.