
Antes de la fecha límite de mayo para finalizar la orientación para los proveedores de modelos de IA de propósito general (GPAI) sobre el cumplimiento de las disposiciones del Reglamento de IA de la UE, se publicó un tercer borrador del Código de Prácticas el martes. El Código ha estado en desarrollo desde el año pasado, y se espera que este borrador sea el último.
También se ha lanzado un sitio web con el objetivo de aumentar la accesibilidad del Código. Los comentarios escritos sobre el último borrador deben presentarse antes del 30 de marzo de 2025.
El libro de reglas basado en el riesgo de la UE para la IA incluye un subconjunto de obligaciones que se aplican solo a los fabricantes de modelos de IA más poderosos, que abarcan áreas como la transparencia, el derecho de autor y la mitigación de riesgos. El Código tiene como objetivo ayudar a los fabricantes de modelos de GPAI a comprender cómo cumplir con las obligaciones legales y evitar el riesgo de sanciones por incumplimiento. Las sanciones del Reglamento de IA por incumplimientos de los requisitos de GPAI podrían alcanzar hasta el 3% de los ingresos anuales globales.
Simplificado
Se anuncia que la última revisión del Código tiene “una estructura más simplificada con compromisos y medidas refinados” en comparación con las iteraciones anteriores, basada en los comentarios sobre el segundo borrador que se publicó en diciembre.
Los comentarios adicionales, las discusiones en grupos de trabajo y talleres alimentarán el proceso de convertir el tercer borrador en una orientación final. Y los expertos dicen que esperan lograr una mayor “claridad y coherencia” en la versión final adoptada del Código.
El borrador se divide en unas pocas secciones que cubren compromisos para GPAIs, junto con una orientación detallada sobre medidas de transparencia y derecho de autor. También hay una sección sobre obligaciones de seguridad que se aplican a los modelos más poderosos (con riesgo sistémico, o GPAISR).
En cuanto a la transparencia, la guía incluye un ejemplo de un formulario de documentación de modelo que se espera que los GPAIs completen para garantizar que los desplegadores posteriores de su tecnología tengan acceso a información clave para ayudar con su propio cumplimiento.
En otros lugares, la sección de derecho de autor probablemente sigue siendo el área más inmediatamente controvertida para Big AI.
El borrador actual está repleto de términos como “mejores esfuerzos”, “medidas razonables” y “medidas apropiadas” cuando se trata de cumplir con compromisos como respetar los requisitos de derechos al rastrear la web para adquirir datos para el entrenamiento del modelo, o mitigar el riesgo de que los modelos generen salidas que infrinjan los derechos de autor.
El uso de un lenguaje mediado de este tipo sugiere que los gigantes de la IA de minería de datos pueden sentir que tienen mucho margen de maniobra para seguir capturando información protegida para capacitar a sus modelos y pedir perdón más tarde, pero aún queda por ver si el lenguaje se endurece en el borrador final del Código.
En cuanto a la seguridad, los requisitos del Reglamento de IA de la UE para evaluar y mitigar los riesgos sistémicos ya solo se aplican a un subconjunto de los modelos más poderosos (aquellos entrenados usando una potencia informática total de más de 10^25 operaciones en punto flotante) -- pero este último borrador ve que algunas medidas previamente recomendadas se están reduciendo aún más en respuesta a los comentarios.
Presión de EE. UU.
En la nota de prensa de la UE sobre el último borrador no se mencionan los ataques furibundos a la legislación europea en general, y a las normas de IA de la UE en particular, provenientes de la administración de EE. UU. liderada por el presidente Donald Trump.
En la cumbre de acción de IA de París el mes pasado, el vicepresidente de los EE. UU., JD Vance, desestimó la necesidad de regular para garantizar que la IA se aplique de manera segura -- la administración de Trump en su lugar se centraría en la “oportunidad de la IA”. Y advirtió a Europa que la sobre reglamentación podría matar a la gallina de los huevos de oro.
Desde entonces, la UE ha avanzado para eliminar una iniciativa de seguridad de la IA -- poniendo la Directiva de Responsabilidad de la IA en la mira. Los legisladores de la UE también han adelantado un próximo paquete “omnibus” de reformas simplificadas a las normas existentes que, según dicen, tienen como objetivo reducir la burocracia para las empresas, con un enfoque en áreas como la presentación de informes de sostenibilidad. Pero con el Reglamento de IA aún en proceso de implementación, claramente hay presión para diluir los requisitos.
En el Mobile World Congress en Barcelona a principios de este mes, Mistral, fabricante de modelos GPAI francés -- un oponente especialmente ruidoso del Reglamento de IA de la UE durante las negociaciones para concluir la legislación en 2023 -- con su fundador Arthur Mensh afirmó que está teniendo dificultades para encontrar soluciones tecnológicas para cumplir con algunas de las reglas. Agregó que la empresa “está trabajando con los reguladores para asegurarse de que esto se resuelva”.
Aunque este Código GPAI está siendo redactado por expertos independientes, la Comisión Europea -- a través de la Oficina de IA que supervisa la aplicación y otras actividades relacionadas con la ley -- está, paralelamente, produciendo una guía “aclaratoria” que también dará forma a cómo se aplica la ley, incluidas definiciones para los GPAI y sus responsabilidades.
Así que esté atento a más orientación, “en su momento”, de la Oficina de IA -- que, según la Comisión, “aclarará … el alcance de las normas” -- ya que esto podría ofrecer un camino para que los legisladores que pierden los nervios respondan al cabildeo de EE. UU. para desregular la IA.