Regulando la revolución: desafíos y dilemas de la inteligencia artificial en la UE

La Unión Europea, líder mundial en regulación de tecnologías emergentes, se encuentra en un punto de inflexión crucial con respecto a sus normas de inteligencia artificial (IA).  Associated Press, explica que lo que se anticipaba como un hito global en 2019, la Ley de IA de la UE, ahora enfrenta obstáculos significativos mientras los negociadores luchan por cerrar detalles en medio del auge repentino de la inteligencia artificial generativa.

La lucha por la gobernanza: lobby tecnológico vs. protección legislativa

La propuesta inicial de la Ley de IA de la UE se vislumbró como la primera regulación exhaustiva de la IA en el mundo, consolidando aún más la posición de la UE como líder en la contención de la industria tecnológica. Sin embargo, se ha desencadenado una batalla de último minuto sobre cómo gobernar los sistemas que respaldan servicios de IA de propósito general, como el ChatGPT de OpenAI y el chatbot Bard de Google.

Grandes empresas tecnológicas han iniciado un lobby enérgico, argumentando contra lo que perciben como una sobre-regulación que podría sofocar la innovación. Por otro lado, los legisladores europeos buscan garantías adicionales para los avanzados sistemas de IA que estas empresas están desarrollando. Esta discrepancia amenaza con retrasar la implementación de la ley.

«En lugar de que la Ley de IA se convierta en el estándar global de regulación de la inteligencia artificial, hay una pequeña pero creciente posibilidad de que no se acuerde antes de las elecciones al Parlamento Europeo» el próximo año*, señala Nick Reiners, analista de políticas tecnológicas en Eurasia Group, una firma de asesoría de riesgo político. Según él, aún hay mucho por definir en la ronda final de conversaciones.

La amenaza global: carrera por establecer límites a la tecnología

Mientras la UE lucha internamente por su regulación, otras potencias como Estados Unidos, Reino Unido y China, junto con coaliciones globales como el Grupo de los 7, también están trabajando para establecer límites a la tecnología en rápido desarrollo. Investigadores y grupos de derechos han advertido sobre los peligros existenciales que la inteligencia artificial generativa representa para la humanidad.

El auge de la inteligencia artificial generativa, capaz de componer música, crear imágenes y escribir ensayos similares al trabajo humano, ha añadido complejidad a la tarea de regulación. La posibilidad de ciberataques masivos y la creación de nuevas armas biológicas han elevado los riesgos, instando a legisladores de la UE a fortalecer la Ley de IA, extendiéndose a los modelos fundamentales.

Modelo fundamental: el nuevo desafío para la regulación de IA

Cuando la Comisión Europea presentó el borrador en 2021, apenas mencionó los sistemas de IA de propósito general como los chatbots. La propuesta inicial se centró en clasificar los sistemas de IA en cuatro niveles de riesgo, desde mínimo hasta inaceptable, con la intención de probar y certificar la información utilizada por los algoritmos.

Sin embargo, con la ascensión de la inteligencia artificial generativa, la perspectiva cambió. Los legisladores europeos se vieron obligados a abordar los modelos fundamentales, también conocidos como modelos de lenguaje grandes, que entrenan con grandes cantidades de datos para otorgar a los sistemas de IA generativa la capacidad de crear algo nuevo.

La carrera contra el tiempo: desafíos en las conversaciones finales

La urgencia se siente en el aire mientras los negociadores se enfrentan a la posibilidad de no alcanzar un acuerdo antes de las elecciones al Parlamento Europeo del próximo año. Nick Reiners destaca que «simplemente hay mucho por definir» en las conversaciones finales programadas para esta semana.

Incluso si las discusiones se prolongan hasta altas horas de la noche, existe la amenaza de una conclusión apresurada para cumplir con los plazos. La complejidad de los temas en juego, desde la gobernanza de la IA hasta la definición de riesgos aceptables, plantea desafíos significativos para llegar a un consenso en tiempo hábil.

El cambio de paradigma: de la seguridad del producto a la certificación de la información

El enfoque original de la propuesta de la UE era probar y certificar la información utilizada por los algoritmos de IA, similar a las verificaciones de seguridad del consumidor en otras industrias. La idea era establecer niveles de riesgo y regular la seguridad de los productos de inteligencia artificial.

Sin embargo, el surgimiento de la inteligencia artificial generativa ha llevado a una revisión de este enfoque. Los modelos fundamentales, al capacitar a los sistemas para crear contenido nuevo, han forzado a los legisladores a ampliar la ley y abordar aspectos que inicialmente se pasaron por alto.

Desafíos éticos y prácticos: el dilema de regular la creatividad artificial

La inclusión de los modelos fundamentales en la regulación plantea desafíos éticos y prácticos. Estos modelos, como ChatGPT, tienen la capacidad de generar contenido creativo, lo que difiere significativamente de la IA tradicional que sigue reglas predefinidas. La línea entre la creatividad artificial y los posibles riesgos se vuelve borrosa, creando un dilema para los legisladores.

Los riesgos éticos, como el uso potencial de la IA para propósitos maliciosos, han llevado a la necesidad de una regulación más estricta. Sin embargo, encontrar el equilibrio entre fomentar la innovación y salvaguardar contra riesgos desconocidos representa un desafío constante en estas conversaciones finales.

La responsabilidad global: la urgencia de establecer estándares internacionales

Mientras la UE lucha con sus regulaciones internas, la dimensión global de la inteligencia artificial subraya la necesidad de estándares internacionales. Con Estados Unidos, China y otras potencias participando activamente en la carrera por establecer límites, la falta de un estándar global podría dejar lagunas significativas en la regulación.

La urgencia de abordar problemas que trascienden las fronteras nacionales es evidente. La falta de coordinación internacional podría dar lugar a una fragmentación en la regulación de la inteligencia artificial, lo que limitaría su eficacia y generaría lagunas de seguridad.

Javiera Grendi
Javiera Grendi