Documento de posición RCG: Trílogo del AI ACT

Autor: Guillem Bas

Autor: Guillem Bas

Resumen

Este documento de posición presenta seis recomendaciones para los responsables políticos involucrados en las negociaciones hacia la Ley de IA de la UE. Incluye cuatro propuestas para regular los modelos de frontera, una sugerencia sobre la naturaleza y las tareas de la futura institución establecida por la Ley, además de una sección sobre cómo abordar los modelos de código abierto. La primera página sintetiza cada propuesta y el apartado específico que podría incluirse en el reglamento. El resto del artículo justifica y desarrolla las seis recomendaciones.

Recomendaciones

  1. Modelos de frontera

a. Umbrales de cómputo

«Modelo de frontera»: un modelo básico de gran capacidad, resultante de un proceso de formación por encima de un umbral de cómputo definido por las autoridades de evaluación comparativa, que podría poseer capacidades peligrosas suficientes para plantear riesgos graves para la seguridad pública.

b. Evaluaciones y pruebas de modelos de terceros

Diseñar y desarrollar el modelo de frontera para lograr niveles apropiados de rendimiento, previsibilidad, interpretabilidad, corregibilidad, seguridad y ciberseguridad a lo largo de su ciclo de vida, según lo examinado a través de la evaluación del modelo realizada por expertos independientes, análisis documentados y pruebas exhaustivas durante el diseño, desarrollo, pruebas y despliegue

c. Sistema de gestión de riesgos

Demostrar, mediante un diseño, pruebas y análisis adecuados durante todo el ciclo de vida del modelo de frontera y con la participación de expertos independientes, que los riesgos son conocidos y razonablemente previsibles en aspectos como: salud,  seguridad,  derechos fundamentales,  medio ambiente,  democracia y el Estado de derecho son eliminados, reducidso o mitigados a un riesgo residual que pueda ser considerado razonablemente aceptable, al tiempo que se facilite la documentación de los riesgos restantes no mitigables después del desarrollo.

d. Salvaguardas de implementación

Al proporcionar el modelo de frontera como un servicio, por ejemplo a través de una API, mantener el control sobre el acceso y el uso del modelo, mantener y monitorear los registros generados automáticamente por la interfaz proporcionada para identificar cualquier caso de mal funcionamiento, incidente o uso indebido grave, y elaborar planes de prevención y contingencia que faciliten la ejecución de acciones correctivas en caso de tales casos.

2. Gobernanza

Establecer una oficina de IA como organismo independiente con personalidad jurídica que, entre otras cosas, emitirá umbrales para definir modelos de frontera, actuará como centro para los esfuerzos de evaluación y realizará evaluaciones de riesgos a gran escala.

3. Acceso abierto

El proveedor de un modelo fronterizo deberá garantizar el cumplimiento del Reglamento independientemente de si se proporciona bajo licencias de acceso gratuito y abierto.

  • Para un mejor entendimiento sobre como definir los modelos de frontera ver el apéndice A. de Anderljung et al. (2023).

Anterior
Anterior

Operacionalizando la definición de IA de gran capacidad

Siguiente
Siguiente

Nuevo prólogo para el informe: Gestión de riesgos de la inteligencia artificial en España