El Gran Hermano tecnológico bloquea la ley europea de inteligencia artificial
Las negociaciones para alcanzar un acuerdo histórico se reanudan hoy
R. ROMAR REDACCIÓN / LA VOZ DESCARTADA LA AUTORREGULACIÓN IA GENERATIVA REPUTACIÓN SOCIAL EL GRAN OBSTÁCULO EL MARCO GENERAL CÓDIGO ABIERTO CUMPLIMIENTO APROBACIÓN
La ley europea que regulará los usos, que no la tecnología, de la inteligencia artificial (IA) se resiste. Después de 24 horas de intensas discusiones entre el Consejo de Europa, que representa a los Gobiernos, la Comisión y el Parlamento, las negociaciones para lograr el gran marco legal que aspira a ser referente para el resto del mundo se reanudarán este viernes. «Estamos agotados. Necesitamos dormir para poder reevaluar los textos», confesó uno de los participantes a Reuters. Hasta ahora se ha logrado un acuerdo preliminar para regular los modelos de IA generativa, como ChatGPT, y se ha respetado, a falta de conocer más detalles, la clasificación de riesgos aprobada en junio por el Parlamento Europeo. Pero la obligación de que las empresas cedan su código fuente y, sobre todo, la prohibición o no de los sistemas de vigilancia biométricos por reconocimiento facial en espacios públicos mantienen bloqueadas las negociaciones.
La propuesta a última hora de Francia, Alemania e Italia para que sean las propias empresas las que autorregulen sus herramientas de IA mediante un código voluntario había amenazado con romper las negociaciones, ya que suponía un cambio radical a la propuesta aprobada en junio por el Parlamento Europeo, que establecía una serie de niveles de riesgo sobre el uso de esta tecnología: desde inaceptable, que prohíbe su uso, a riesgo alto, limitado o mínimo. Solo en este último caso no se requeriría una regulación. La autorregulación parece ahora descartada. principales puntos de fricción. La apuesta ahora, a falta de concretar la letra pequeña, pasa por obligar a las empresas a comprobar que sus sistemas son seguros, antes de poderlos utilizar en contextos de riesgo, como la sanidad, la Justicia o la contratación laboral. La normativa, en principio, incluirá, entre otros aspectos, la obligatoriedad de identificar los contenidos creados por IA, y clasifica esta tecnología en una serie de categorías, prohibiendo el uso de las consideradas peligrosas y monitorizado aquellas «de riesgo». El reglamento tendrá cierta flexibilidad para que —de ser necesario— nuevas tecnologías de este tipo puedan ser incluidas o retiradas de la «lista de riesgo». Además, los proveedores de IA tendrían que publicar resúmenes detallados del contenido utilizado para entrenar a sus sistemas. Pero aún quedan flecos por resolver. varios puntos con los que poder conseguir ciertos beneficios, como obtener mejores condiciones para lograr un crédito o un trabajo. Si por el contrario la calificación es negativa, se le podría negar un billete de avión, un seguro o un crédito. En China sí se utiliza.
Los sistemas de vigilancia biométrica en espacios públicos que permiten el reconocimiento facial y de las emociones de
los individuos suponen ahora mismo el gran escollo de las negociaciones. El Parlamento europeo prohibió su uso en junio, pero ahora los Gobiernos quieren que se establezcan excepciones a la hora de limitar el uso de este Gran Hermano que vigila a los ciudadanos. Los Estados miembros quieren que se permita el uso de este tipo de tecnología en casos en los que esté en juego la seguridad nacional y siempre bajo autorización judicial. Quieren que se pueda usar, por ejemplo, para evitar delitos como el terrorismo, el abuso sexual o la protección de infraestructuras críticas.
La ley propone una estructura piramidal que divide los productos impulsados por IA en cuatro categorías principales en función del riesgo potencial que representan para la seguridad de los ciudadanos y los derechos fundamentales: riesgo mínimo, riesgo limitado, riesgo alto y riesgo inaceptable. Aquellos que entren en la categoría de riesgo mínimo estarán exentos de reglas adicionales, mientras que aquellos etiquetados como de riesgo limitado tendrán que cumplir con obligaciones básicas de transparencia. Como marco general, la legislación reforzará las normas sobre calidad de los que alimentan los algoritmos para lograr una IA fiable y confiable. Apostará por la transparencia que obligará, según los casos, a advertir de que se está utilizando una inteligencia artificial, e incorporará la supervisión humana en aquellos supuestos donde sea necesario.
La ley plantea eximir de la regulación a las licencias de IA gratuitas y de código abierto en la mayoría de los casos, a menos que se consideren de alto riesgo o se utilicen para fines ya prohibidos.
La ley contempla la creación de un organismo europeo que velará porque se cumpla la normativa, y cada Estado miembro contará, además, con un organismo nacional dedicado a esta labor. En el caso de España será la Agencia Nacional de Supervisión de Inteligencia Artificial (Aesia), con sede en A Coruña, que empezará a funcionar a principios de año.
Aunque Consejo, Comisión y Parlamento logren un pacto este viernes, aún habrá que esperar para la aprobación definitiva de la ley, y más aún para su entrada en vigor. Si ahora se alcanza el acuerdo, la propuesta debe ser ratificada por el Parlamento y aceptada de forma definitiva por el Consejo. De esta forma quedaría aprobada en primavera del 2024 y podría entrar en vigor, ya que los Estados tendrán que incorporarla, a finales del 2025 o incluso el 2026. Si no se pacta ahora, los tiempos se prolongarán aún más, con lo que Europa podría perder su posición de privilegio para convertirse en referente mundial en la regulación de la inteligencia artificial.
SOCIEDAD
es-es
2023-12-08T08:00:00.0000000Z
2023-12-08T08:00:00.0000000Z
https://lectura.kioskoymas.com/article/281913072888214
Kiosko y Mas Sociedad Gestora de la Plataforma Tecnologica, S.L.