Apocalipsis de la IA: la idea de una catástrofe facilitada algorítmicamente se vuelve más válida

La noción del «apocalipsis de la IA», lejos de ser un mero guion de ciencia ficción, se está anclando firmemente en el discurso tecnológico contemporáneo. A medida que avanzamos hacia una era donde la inteligencia artificial (IA) se integra cada vez más en nuestras vidas, crecen las preocupaciones sobre sus potenciales riesgos catastróficos. Okezue Bell, estudiante de Stanford y activista de la IA, así como director ejecutivo de Fidutam, se ha pronunciado sobre estos riesgos en el Foro del Senado. Por su parte, Marc Rotenberg, del Centro de IA y Política Digital, contribuye a esta discusión, reforzando la necesidad de un enfoque equilibrado en el desarrollo de la IA.

Recientemente, el Future of Life Institute hizo un llamado a los laboratorios de IA para detener el desarrollo de sistemas más poderosos que GPT-4, citando «profundos riesgos para la sociedad y la humanidad». Este llamado, respaldado por figuras como Elon Musk y Steve Wozniak, resalta la creciente preocupación sobre las consecuencias imprevistas de una IA avanzada. La idea de que la IA pueda presentar peligros existenciales, comparables a los del cambio climático o la guerra nuclear, ha dejado de ser marginal y ahora es un movimiento respaldado por líderes tecnológicos prominentes.

Apocalipsis de la IA
La idea de que la IA pueda presentar peligros existenciales, comparables a los del cambio climático o la guerra nuclear, ha dejado de ser marginal. Ilustración MidJourney

Longtermismo y el apocalipsis de la IA

El debate en torno a la seguridad de la IA se enmarca dentro de una filosofía conocida como longtermismo, que pone énfasis en el bienestar de futuras generaciones, a veces en detrimento de la población actual. Es como una barrera que contiene al Día del apocalipsis de la IA. Sin embargo, esta perspectiva no está exenta de críticas. Expertos como Timnit Gebru han señalado los orígenes problemáticos de esta ideología y han acusado a sus proponentes de promover ideas eugenésicas y deshumanizadoras.

Tambièn puedes leer: Lula da Silva: Espero que prevalezca el sentido común, del lado de Venezuela y Guyana

La creciente influencia del longtermismo en la cultura de Silicon Valley y en universidades de élite ha llevado a un enfoque desproporcionado en la IA como un riesgo existencial, a menudo eclipsando preocupaciones inmediatas y tangibles relacionadas con la tecnología. La IA, como se ha demostrado, puede socavar la privacidad en línea, discriminar a grupos minoritarios y dañar desproporcionadamente a los jóvenes. Además, las prácticas laborales explotadoras asociadas con su desarrollo son cada vez más un motivo de preocupación.

Legislar para prevenir

En este contexto, la Unión Europea avanza hacia una legislación integral sobre IA, mientras que en Estados Unidos el progreso legislativo es lento. La Ley de Responsabilidad Algorítmica, que exige evaluaciones de impacto de los sistemas de decisión automatizados, y el proyecto de ley marco bipartidista sobre IA son ejemplos de iniciativas que buscan regular este campo.

Apocalipsis de la IA
El debate en torno a la seguridad de la IA se enmarca dentro de una filosofía conocida como longtermismo, que pone énfasis en el bienestar de futuras generaciones, a veces en detrimento de la población actual. Ilustración MidJourney

Los expertos en IA, incluidos Yoshua Bengio y Stuart Russell, abogan por estrategias que aborden tanto los daños actuales como los riesgos a largo plazo. Esta visión integral es crucial para desarrollar marcos de gobernanza que atiendan tanto a desafíos inmediatos como futuros. La reciente orden ejecutiva del presidente Biden sobre IA es un paso en esta dirección, estableciendo estándares de seguridad para sistemas avanzados de IA y prácticas mínimas para sistemas que afectan los derechos y la seguridad en el gobierno federal a fin de contener el advenimiento del apocalipsis de la IA dentro del gobierno.

Tambièn puedes leer: Corea, Japón, Taiwán y EE.UU.: Estos son compromisos de seguridad que se remontan casi a la memoria viva

Evolución responsable y humana

El desafío que enfrentamos es navegar por la compleja red de promesas y peligros que ofrece la IA. Sólo a través de una síntesis de las voces de las comunidades de riesgo y ética de la IA, así como de los ciudadanos interesados, podremos desarrollar una estrategia integral que asegure la evolución responsable y humana de la inteligencia artificial. La convergencia de estas diversas perspectivas y preocupaciones es fundamental para un futuro en el que la tecnología avance de manera que beneficie a la humanidad en su conjunto, evitando los riesgos catastróficos que muchos temen.

La creciente ansiedad en torno al «apocalipsis de la IA» refleja una realidad inminente en la que la tecnología que una vez fue considerada como un mero auxiliar de la humanidad, ahora plantea preguntas serias sobre su capacidad para remodelar o incluso desestabilizar nuestra existencia misma.

Related articles

- Publicidad -spot_imgspot_img
spot_imgspot_img

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí