Collective Constitutional AI: Un juego de Anthropic para dar gobernanza a la Inteligencia Artificial

La salida a uno de los debates más intensos en Silicon Valley es sobre quién debería controlar la inteligencia artificial (IA) y quién debería formular las reglas que rigen a los sistemas poderosos de esa tecnología al parecer está en Collective Constitutional AI. Es necesario antes de avanzar colocar todas las inquietudes: ¿La inteligencia artificial debería estar en manos de unas cuantas empresas que hacen lo mejor que pueden para que sus sistemas sean, en lo posible, lo más seguros e inofensivos? ¿Acaso deberían intervenir reguladores y políticos y crear sus propias protecciones? ¿O será que los modelos de IA deben ser abiertos y gratuitos de modo que usuarios y desarrolladores puedan decidir sus propias normas?

Un nuevo experimento realizado por Anthropic, el fabricante del chatbot Claude, ofrece un camino intermedio poco convencional: ¿qué pasaría si una empresa de inteligencia artificial le permitiera a un grupo de ciudadanos comunes y corrientes redactar algunas reglas y, luego, entrenara a un chatbot para que las siguiera? El experimento, conocido como “Collective Constitutional AI”, se basa en un proyecto previo de Anthropic llamado Constitutional AI, una alternativa para entrenar a grandes modelos con el fin de que sigan un conjunto de principios escritos.

Collective Constitutional AI

El mismo pretende darle a un chatbot instrucciones claras de cómo manejar solicitudes sensibles, qué temas están prohibidos y cómo actuar conforme a los valores humanos. Si funciona Collective Constitutional AI —y los investigadores de Anthropic creen que hay motivos para creer que así será— podría inspirar otros experimentos de gobernanza de inteligencia artificial y darles a las empresas del sector más ideas sobre cómo invitar a actores externos a participar en sus procesos de elaboración de normas. Eso sería bueno.

Collective Constitutional AI
Un grupo de ciudadanos comunes y corrientes redactan algunas reglas y, luego, entrenara a un chatbot para que las siga. Ilustración MidJourney

Ahora mismo, las reglas para los sistemas poderosos de IA son establecidas por un pequeño grupo de conocedores de la industria, que deciden cómo deberían comportarse sus modelos con base en una combinación de su ética personal, sus incentivos comerciales y la presión del exterior. No hay controles sobre ese poder y no hay opciones para que los usuarios comunes y corrientes puedan opinar.

Tambièn puedes leer: ¿Donald Trump será candidato a pesar de lo que pasa en el tribunal de Georgia?

Transparencia y competencia

Facilitar la gobernanza de las inteligencias artificiales podría aumentar la comodidad que siente la sociedad con estas herramientas y darles a los reguladores más certeza de que siguen criterios competentes. También podría evitar algunos de los problemas que surgieron en el auge de las redes sociales en la década de 2010, cuando un grupo de titanes de Silicon Valley terminaron al mando de enormes porciones del discurso en línea.

En pocas palabras, Collective Constitutional AI opera mediante el uso de un conjunto de normas escritas (una “constitución”) para vigilar la conducta de un modelo de inteligencia artificial. La primera versión de la constitución de Claude tomó prestadas algunas normas de otros documentos oficiales, como la Declaración Universal de los Derechos Humanos de las Naciones Unidas y los términos y condiciones de los servicios de Apple.

Más allá de los linderos

Sin embargo, Collective Constitutional AI va un paso más allá. En lugar de que un pequeño grupo de expertos o una empresa dicten las reglas, busca incorporar la sabiduría colectiva y diversa de una comunidad más amplia. Esto significa que ciudadanos comunes y corrientes tienen la oportunidad de participar en la creación de las normas que guiarán el comportamiento de la inteligencia artificial.

El experimento comenzó con la selección de un grupo de personas representativas de la diversidad de opiniones y experiencias en la sociedad. Estos ciudadanos participaron en discusiones en línea y sesiones de trabajo para definir los principios éticos y directrices para la IA. Fue un proceso que involucró la deliberación y la colaboración, y que reflejó una gama de perspectivas y preocupaciones.

Lecciones para Claude

Una vez que se definieron estas normas, el siguiente paso fue entrenar a Claude, el chatbot de Anthropic, para que las cumpla os patrones establecidos en la Collective Constitutional AI. El objetivo es que Claude actúe de acuerdo con los valores y principios consensuados por la comunidad, evitando conductas perjudiciales o inapropiadas.

Este enfoque representa un cambio significativo en la forma en que se desarrollan y aplican las reglas de la inteligencia artificial. En lugar de que las empresas determinen unilateralmente cómo deben comportarse sus sistemas, se da voz a las personas que serán afectadas por la IA. Es una aproximación más democrática y transparente a la gobernanza de la tecnología.

Collective Constitutional AI
Esto sugiere que la participación de ciudadanos en la formulación de normas puede conducir a una IA más ética y responsable. Ilustración MidJourney

Todo ha sido bueno

Los resultados iniciales del experimento son prometedores. Claude ha demostrado una mayor comprensión y respuesta a las solicitudes y preguntas de los usuarios, alineándose mejor con los principios éticos definidos por la comunidad. Esto sugiere que la participación de ciudadanos en la formulación de normas puede conducir a una IA más ética y responsable.

Tambièn puedes leer: Museo de Pablo Escobar sintió el poder de la «extinción de dominio» diseñada por Petro

Sin embargo, Collective Constitutional AI no está exento de desafíos. Uno de los principales desafíos es cómo garantizar la representatividad y la inclusión en el proceso de definición de normas. Es crucial que la diversidad de voces se refleje adecuadamente para evitar sesgos y asegurar que se aborden las preocupaciones de todas las partes interesadas.

Además, la implementación de este enfoque en la práctica a gran escala plantea preguntas sobre la escalabilidad y la gestión de los sistemas de IA. ¿Cómo se puede garantizar que miles o millones de usuarios tengan la oportunidad de contribuir a la definición de normas? ¿Cómo se manejan las posibles contradicciones entre diferentes grupos de usuarios?

Related articles

- Publicidad -spot_imgspot_img
spot_imgspot_img

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí