El Parlamento Europeo adoptó el miércoles su posición negociadora sobre la futura Ley de Inteligencia Artificial. Es el primer paso en proceso regulatorio en el que, ahora, comenzarán las conversaciones sobre la forma final de la ley en el Consejo, junto a los países de la UE. El objetivo es alcanzar un acuerdo a finales de este año.
La prioridad del Parlamento es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. Los sistemas de IA deben ser supervisados por personas, en lugar de por la automatización, para evitar resultados perjudiciales.
El Parlamento también quiere establecer una definición uniforme y tecnológicamente neutra de la IA que pueda aplicarse a futuros sistemas de IA. La nueva normativa establece obligaciones para proveedores y usuarios en función del nivel de riesgo de la IA. Aunque muchos sistemas de IA plantean un riesgo mínimo, es necesario evaluarlos todos.
Así, se establecen tres niveles:
- Los sistemas de IA de riesgo inaceptable son los que se consideran una amenaza para las personas y serán prohibidos.
- Los sistemas de IA que afecten negativamente a la seguridad o a los derechos fundamentales se considerarán de alto riesgo y se dividirán en dos categorías: los sistemas de IA que se utilicen en productos sujetos a la legislación de la UE sobre seguridad de los productos; los sistemas de IA pertenecientes a ocho ámbitos específicos, que deberán registrarse en una base de datos de la UE.
- Los sistemas de IA de riesgo limitado deben cumplir unos requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones con conocimiento de causa. Tras interactuar con las aplicaciones, el usuario puede decidir si desea seguir utilizándolas. Los usuarios deben ser conscientes de cuándo están interactuando con la IA.
Fuente: Füture