La UE introduce requisitos de transparencia en la IA: los desarrolladores deben revelar en qué se entrenan sus modelos

Published from Blogger Prime Android App

Desde el 2 de agosto, la Unión Europea ha introducido obligaciones de divulgación para los desarrolladores de inteligencia artificial (IA) de propósito general, como 'ChatGPT' o 'Gemini'. Las nuevas normas forman parte de la 'Ley de IA', la primera ley internacional que regula este ámbito.

Las empresas que producen estos modelos ahora deben publicar un resumen de los datos utilizados para el entrenamiento, divulgar la arquitectura y el funcionamiento de sus sistemas y documentar las medidas de seguridad adoptadas. Para los modelos más avanzados, que representan un riesgo sistémico, existen requisitos adicionales: deben notificar a la Comisión Europea, realizar una evaluación interna de riesgos e implementar mecanismos de seguimiento.

Los requisitos se aplican a los modelos lanzados después del 2 de agosto de 2025. Los desarrolladores de sistemas lanzados antes de esa fecha tienen dos años para adaptar sus modelos a los requisitos, hasta agosto de 2027.

Las normas buscan proteger los derechos de autor, prevenir la manipulación y aumentar la transparencia en el uso de la IA, según la Comisión Europea. El reglamento también prohíbe el uso de tecnologías para la calificación social, el reconocimiento automático de emociones en escuelas y lugares de trabajo, y la manipulación de grupos vulnerables.

La Oficina Europea de IA, creada para supervisar la implementación de la ley, comenzará a probar modelos a partir de agosto de 2026.

La Ley de IA fue aprobada por el Parlamento Europeo en marzo de 2024 y por los ministros de la UE en mayo. El documento introduce un sistema multinivel de regulación de la IA en función del grado de riesgo potencial. En febrero de 2025, entraron en vigor las prohibiciones del uso de la IA en las áreas más sensibles, como la identificación biométrica en tiempo real. La fase actual se centra en modelos de propósito general capaces de generar texto, imágenes y código de programa.

En caso de infracción, las empresas se enfrentan a multas de hasta 35 millones de euros o el 7% de su facturación global del año anterior, lo que sea mayor.

Comentarios