Fundación Panoptykon: Algoritmo de las redes sociales exacerba el deterioro de la salud mental

En una era donde la interacción digital se ha convertido en un pilar fundamental de la comunicación humana, un preocupante fenómeno emerge desde las sombras del código y los algoritmos: el impacto negativo que las redes sociales tienen en la salud mental. La Fundación Panoptykon, una organización sin fines de lucro de derechos digitales, ha encendido las alarmas sobre cómo los algoritmos de redes sociales, particularmente el de Facebook, están exacerbando el deterioro de la salud mental de sus usuarios.

Un estudio llevado a cabo por la Fundación Panoptykon en colaboración con el académico especializado en auditorías de algoritmos, Piotr Sapieżyński, revela datos alarmantes. Durante dos meses, analizaron las publicaciones que el algoritmo de Facebook enviaba a Joanna, una usuaria del estudio. Más de la mitad de estas publicaciones estaban directamente relacionadas con sus miedos personales. Esta revelación destapa una realidad inquietante: en lugar de ser un espacio seguro y personalizado, las redes sociales pueden convertirse en un espejo distorsionado que refleja y amplifica los miedos y ansiedades de los individuos.

deterioro de la salud mental
Las redes sociales pueden convertirse en un espejo distorsionado que refleja y amplifica los miedos y ansiedades de los individuos. Ilustración MidJourney

Deterioro de la salud mental

La investigación mostró que las acciones de Joanna para mitigar este flujo de contenido perturbador, como decirle a Facebook que ocultara las publicaciones sugeridas, solo resultaron en un ligero aumento de estas publicaciones. Este hallazgo sugiere una preocupante falta de control por parte del usuario sobre el contenido que consume en la plataforma, lo que podría tener consecuencias negativas como el deterioro de la salud mental.

Tambièn puedes leer: Instituto Cato: Poner fin al Título 42 benefició la seguridad fronteriza, revertirlo sería incorrecto

La preocupación sobre los algoritmos de las redes sociales no es nueva. En los últimos años, empresas como Meta Platforms han estado bajo un creciente escrutinio. La denunciante Frances Haugen acusó a Meta de no limitar el contenido dañino en su plataforma, una acusación que la empresa niega. Igualmente, el algoritmo de TikTok ha sido señalado por ofrecer recomendaciones adictivas y potencialmente peligrosas.

Europa ataca al negocio

Ante este panorama, los reguladores han comenzado a tomar medidas. La Comisión Europea, por ejemplo, ha empezado a hacer cumplir la Ley de Servicios Digitales (DSA) de la UE, dirigida a empresas como Meta, TikTok y YouTube. Esta ley podría imponer multas de hasta el 6% de los ingresos globales de una empresa si no cumple con las obligaciones de regular el contenido dañino.

En Estados Unidos, la situación no es diferente. Treinta y tres estados se unieron para demandar a Meta, alegando que los algoritmos de sus plataformas crean “madrigueras de conejos” digitales para maximizar la participación, a menudo a expensas de deterioro de la salud mental de los usuarios.

“Me sentí explotada y atrapada”

El caso de Joanna es un ejemplo claro de las consecuencias de estos algoritmos. En junio de 2023, casi el 54% de las publicaciones que Facebook le mostró incluían contenido sobre muerte súbita, enfermedades y accidentes. En julio, esta cifra aumentó al 57%, incluso después de que intentara reducir la visualización de dicho contenido. En total, Joanna se enfrentó a 1.416 publicaciones inquietantes en solo dos meses. “Me sentí explotada y atrapada”, confesó Joanna, reflejando la angustia que muchos usuarios experimentan al navegar por estas plataformas.

deterioro de la salud mental
Queda mucho por hacer para garantizar que los espacios digitales sean seguros y positivos e impidan el deterioro de la salud mental de sus usuarios. Ilustración MidJourney

Ben Walters, portavoz de Meta, defendió la compañía argumentando que el estudio tenía errores, señalando su tamaño de muestra limitado y suposiciones erróneas sobre el control del usuario sobre su feed, echando por tierra la tesis del deterioro de la salud mental. Sin embargo, Meta no ha respondido a preguntas sobre las medidas tomadas para asegurar que sus algoritmos no sugieran contenido tóxico ni ha comentado en detalle cómo está cumpliendo con la DSA.

Tambièn puedes leer: Detener el cambio climático pasa por migrar al uso de energías alternativas

Hay que seguir presionando

Este panorama plantea interrogantes cruciales sobre la responsabilidad de las plataformas de redes sociales en la protección de la salud mental de sus usuarios. La creciente conciencia sobre este tema y la presión regulatoria pueden ser un punto de inflexión en la forma en que estas empresas operan. Sin embargo, queda mucho por hacer para garantizar que los espacios digitales sean seguros y positivos e impidan el deterioro de la salud mental de sus usuarios.

Mientras tanto, historias como la de Joanna subrayan la urgente necesidad de una mayor transparencia y responsabilidad en la gestión de algoritmos. La lucha por un espacio digital más saludable y menos perjudicial es un desafío que requiere la colaboración entre usuarios, empresas y reguladores. La salud mental de millones de personas podría depender de cómo se aborde este desafío en los próximos años.

Related articles

- Publicidad -spot_imgspot_img
spot_imgspot_img

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí