Evaluadores independientes dicen no conseguir una puerta amistosa para analizar la IA generativa

En el panorama actual de la tecnología, un debate creciente se cierne sobre las capacidades y el impacto de la inteligencia artificial generativa. Este debate ha puesto en el foco a una comunidad de investigadores independientes, quienes afirman enfrentarse a barreras significativas al intentar analizar la IA generativa de manera crítica. Estos evaluadores, dotados de experticia técnico y una perspectiva externa, buscan comprender, testear y, en última instancia, mejorar la seguridad y la ética de los sistemas de IA. Sin embargo, sus esfuerzos se ven obstaculizados por políticas de acceso restringido y legales ambiguas impuestas por las compañías detrás de estas tecnologías avanzadas.

El contexto de este análisis se basa en el trabajo de Nitasha Tiku, reportera de cultura tecnológica del Washington Post con sede en San Francisco. Antes de unirse a The Post en 2019, Tiku contaba con una década de experiencia ayudando a los lectores a comprender cómo piensa y opera Silicon Valley. Su más reciente contribución editorial, titulada “Los principales investigadores de IA dicen que OpenAI, Meta y más obstaculizan las evaluaciones independientes”, arroja luz sobre cómo las políticas de las empresas de tecnología han paralizado la investigación independiente sobre IA. En su pieza, Tiku divulga una carta abierta firmada por más de 100 importantes investigadores de inteligencia artificial que exhortan a las empresas detrás de la IA generativa a permitir el acceso a sus sistemas para facilitar una evaluación independiente y rigurosa.

analizar la IA generativa
La necesidad de analizar la IA generativa es urgente y evidente. Estas tecnologías, que pueden generar textos, imágenes, y sonidos indistinguibles de las producciones humanas, presentan riesgos significativos si no se gestionan y evalúan correctamente. Ilustración MidJourney

Privados desean analizar la IA generativa

La necesidad de analizar la IA generativa es urgente y evidente. Estas tecnologías, que pueden generar textos, imágenes, y sonidos indistinguibles de las producciones humanas, presentan riesgos significativos si no se gestionan y evalúan correctamente. Desde la proliferación de desinformación hasta la creación de contenido que infringe derechos de autor, los desafíos son vastos y variados.

Tambièn puedes leer: Análisis de DW: Netanyahu pensó que Hamás podía detener la iniciativa de los dos Estados

Los investigadores argumentan que los protocolos estrictos diseñados para prevenir abusos de los sistemas de IA están, paradójicamente, impidiendo una investigación vital que podría identificar y mitigar estos riesgos. La paradoja es palpable: las medidas de seguridad destinadas a proteger la tecnología de actores malintencionados también están bloqueando a aquellos que buscan hacerla más segura y ética.

Notables como firmantes

La carta abierta, firmada por expertos en investigación, políticas y derecho de la IA, incluye nombres como Percy Liang de la Universidad de Stanford; la periodista ganadora del premio Pulitzer Julia Angwin; y Renée DiResta del Observatorio de Internet de Stanford, entre otros. Estos firmantes instan a las empresas de IA generativa a ofrecer un puerto seguro legal y técnico para que los investigadores puedan examinar sus productos sin temor a represalias. La demanda surge en un momento en el cual las empresas de IA se muestran cada vez más reticentes a permitir que auditores externos accedan a sus sistemas, alegando preocupaciones sobre violaciones de derechos de autor y otros abusos potenciales.

La resistencia de las compañías a facilitar estas evaluaciones no solo representa un obstáculo para la transparencia y la mejora de la IA generativa, sino que también sugiere una repetición de errores pasados observados en las plataformas de redes sociales. Estas plataformas, en muchos casos, han prohibido la investigación destinada a responsabilizarlas, limitando severamente el entendimiento público sobre cómo funcionan y cuáles pueden ser sus impactos en la sociedad. Los firmantes de la carta advierten sobre este peligroso precedente y piden un cambio en la actitud de las compañías de tecnología hacia la investigación independiente que desea analizar la IA generativa.

analizar la IA generativa
. El sistema actual fomenta el favoritismo y limita el alcance de la investigación a unos pocos elegidos, dejando a un lado voces independientes y críticas que podrían aportar perspectivas valiosas. Ilustración MidJourney.

Seguridad, fiabilidad y ética

La solicitud de un puerto seguro para analizar la IA generativa no solo tiene como objetivo proteger los derechos de los investigadores, sino también mejorar la seguridad, la fiabilidad y la ética de estas tecnologías. Sin la posibilidad de realizar pruebas independientes, vulnerabilidades significativas podrían pasar desapercibidas hasta que causen daños irreparables. Este escenario no es hipotético; ya se han identificado brechas de seguridad en modelos ampliamente utilizados, demostrando la importancia crítica de permitir una evaluación externa rigurosa.

Tambièn puedes leer: América Latina es clave en el desarrollo y promoción de los Corredores Bioceánicos

A pesar de algunos esfuerzos por parte de las empresas para abrir sus puertas a la investigación, como programas especiales de acceso para investigadores seleccionados, la carta argumenta que estas medidas no son suficientes. El sistema actual fomenta el favoritismo y limita el alcance de la investigación a unos pocos elegidos, dejando a un lado voces independientes y críticas que podrían aportar perspectivas valiosas. Además, las políticas restrictivas actuales disuaden a los investigadores de informar sobre problemas, temiendo represalias que podrían ir desde la prohibición de sus cuentas hasta acciones legales.

Mitigación de riesgos

El llamado de los investigadores es claro: analizar la IA generativa, fomenta la segura y ética, las empresas deben replantearse cómo interactúan con la comunidad de investigación independiente. Permitir el acceso a los sistemas no solo es una cuestión de transparencia y responsabilidad; es también un paso esencial hacia la mitigación de riesgos y la protección del bienestar público. La carta abierta es un recordatorio urgente de que, en la carrera por desarrollar tecnologías de IA avanzadas, no se debe perder de vista la importancia de la seguridad, la ética y la responsabilidad social.

Este escenario pone de relieve una tensión fundamental en el corazón de la revolución de la IA generativa: el equilibrio entre la innovación y la responsabilidad. Mientras las empresas de tecnología buscan avanzar y capitalizar estas poderosas herramientas, los investigadores independientes luchan por asegurar que dicha innovación no se produzca a expensas de la seguridad y la ética. La solución a este dilema no es sencilla, pero el diálogo abierto, la colaboración y el compromiso mutuo entre todos los actores involucrados serán cruciales para navegar este nuevo territorio tecnológico de manera responsable. La carta abierta es un paso hacia este diálogo, una llamada a la acción para que las empresas de IA generativa reconozcan la importancia de la evaluación independiente y faciliten un entorno en el que pueda prosperar.

Related articles

- Publicidad -spot_imgspot_img
spot_imgspot_img

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí