Aviso

 

Las grandes tecnológicas de EEUU censuran sus nuevos sistemas en Europa y amenazan que si no relaja su normativa verá “cómo el resto del mundo construye sobre tecnologías a las que los europeos no tendrán acceso”

 “¿Así se sentirá vivir en Europa en la era de la inteligencia artificial?”, preguntaba hace unos días el jefe de Tecnología de Hugging Face, una plataforma que permite a los desarrolladores e investigadores entrenar y probar algoritmos generativos. Acompañaba la reflexión de un meme que muestra a varios personajes de Bob Esponja bailando en la calle mientras otro los mira desde una habitación en penumbra. Una broma con un mensaje claro y real: los gigantes tecnológicos de Silicon Valley están prohibiendo a los europeos que jueguen con sus nuevas inteligencias artificiales. No les gustan las normas que la UE ha puesto en este parque y el veto es su manera de transmitir que la pelota es suya.

En los últimos días se ha confirmado que tres grandes y esperados sistemas no estarán disponibles en Europa. El primero es el modelo Llama 3.2 de Meta, la propietaria de Instagram, WhatsApp y Facebook. Se trata de una IA multimodal, lo que implica que puede procesar y generar información a partir de texto, imágenes, documentos y gráficos. Es el primer gran sistema de enfoque abierto, lo que quiere decir que al contrario que otras como ChatGPT, permite descargarla y personalizarla en función de las necesidades de cada persona u organización. La comunidad de desarrolladores cree que será un gran paso adelante en la generalización de las herramientas de IA.

Los otros dos modelos que las tecnológicas han censurado en la UE son la versión de voz de ChatGPT y Apple Intelligence. Los dos se basan en la tecnología de OpenAI y aspiran a ser lo que en su día prometían los asistentes virtuales como Siri o Alexa: sistemas que puedan mantener una conversación con los humanos. Capaces de detectar sus emociones, sus necesidades o el tono del diálogo.

Las tres compañías han alegado que el motivo para no desplegar estas herramientas en la UE son las nuevas regulaciones que afectan a su negocio. “La naturaleza impredecible del entorno normativo europeo”, según un portavoz de Meta. Es la única que ha tenido un choque claro con las autoridades europeas. Este se produjo cuando la corporación de redes sociales intentó dificultar que los europeos pudieran negarse a que entrenara Llama con sus fotos y comentarios de Facebook e Instagram. Tras la reprimenda de las autoridades de protección de datos, Meta decidió que no utilizaría esa información para entrenar su IA, pero Llama estaría vetada en la UE.

“Cada vez preocupa más que esto pueda conducir a una ‘IA a dos velocidades’: una IA más avanzada para el resto del mundo y una IA menos capaz para la UE”, decía en su comentario Phillip Schmid, de Hugging Face, que también es una plataforma estadounidense. “Aunque las normativas tienen por objeto proteger, también pueden obstaculizar la innovación, por lo que debemos encontrar rápidamente un equilibrio que garantice que el progreso no se estanque”, continuaba: “Comisión Europea, ¡estaríamos encantados de prestar nuestro apoyo!”.

Es la posición que expresaron en una carta firmada por empresarios e investigadores expertos en IA, entre los que se encuentran Mark Zuckerberg o Daniel Ek, fundador de Spotify. “Una regulación fragmentada implica que la UE corre el riesgo de perderse la era de la IA”, amenazan. Una opción, explican, es hacer una “interpretación moderna” de las leyes, “de modo que la innovación en IA se produzca aquí a la misma escala y velocidad que en otras partes”. La otra es “seguir rechazando el progreso, contradiciendo las ambiciones del mercado único y observando cómo el resto del mundo construye sobre tecnologías a las que los europeos no tendrán acceso”.

La UE puede seguir rechazando el progreso y observando cómo el resto del mundo construye sobre tecnologías a las que los europeos no tendrán acceso. (Carta de empresarios e investigadores a la UE)

La presión llega incluso de compañías que sí han desplegado sus herramientas de IA en Europa, como Google. Kent Walker, su presidente de Asuntos Globales y director jurídico, el ejecutivo que se sienta a negociar con los responsables políticos, se encuentra en este momento en Europa para hablar de regulación.

“Mi viaje llega en un momento importante, cuando estamos viendo avances notables en las herramientas de IA”, ha escrito este miércoles en LinkedIn. “Sin embargo, a medida que avanza la ciencia, gran parte del debate público ha girado en torno a los riesgos, desde la seguridad de la IA hasta las preocupaciones sobre discriminación y mal uso”, ha afeado el directivo.

Temo que no se esté hablando lo suficiente sobre el mayor riesgo: el riesgo de perderse la próxima revolución tecnológica. (Kent Walker — presidente de Asuntos Globales y director jurídico de Google)

Para Walker, la opacidad con la que se está desarrollando la IA o la posibilidad de que refleje los sesgos de sus creadores, como machismo, racismo o clasismo, resultan factores secundarios. “Es importante abordar estos temas, pero también deberíamos reconocer que la innovación a largo plazo típicamente conduce a más, no menos, seguridad. Y temo que no se esté hablando lo suficiente sobre el mayor riesgo: el riesgo de perderse la próxima revolución tecnológica”, ha incidido.

“Solo se pide transparencia”

Bruselas no ha reaccionado ante este embate. Fuentes oficiales del Ejecutivo han declarado que no hacen comentarios sobre “decisiones individuales”, pero recuerdan que “todas las empresas son bienvenidas a ofrecer sus servicios en Europa, siempre que cumplan la legislación de la UE”. “Todos sabemos que la IA ofrece muchas ventajas, pero también conlleva riesgos. Necesitamos una IA en la que la gente pueda confiar. Por eso la Ley Europea de IA ha establecido normas claras, para salvaguardar los derechos fundamentales de los ciudadanos”, recalcan.

Otras fuentes, sin embargo, tienen claro el diagnóstico. “Están intentando hacer presión, como siempre ha intentado las grandes tecnológicas. Ahora el objetivo es la nueva Comisión Europea”, avisa Carme Artigas, ex secretaria de Estado de Digitalización e Inteligencia Artificial.

Artigas lideró la negociación del Reglamento de Inteligencia Artificial durante la presidencia española de la UE y ahora codirige el comité asesor en IA de Naciones Unidas. Destaca que los gigantes tecnológicos ya llevaron a cabo esa presión durante años para relajar la normativa comunitaria sobre esta tecnología. “Es un pulso a la regulación. El mismo que ha habido en California para que el gobernador vetara una ley aprobada por un Parlamento”, recuerda.

En EEUU los gobernadores estatales tienen la capacidad de vetar proyectos de ley aprobados por las cámaras representativas. Este domingo Gavin Newsom, gobernador de California (cuna de Silicon Valley) utilizó este poder para rechazar una normativa clave que imponía requisitos de seguridad para el desarrollo de modelos de IA avanzados. La ley pretendía garantizar la seguridad antes de desplegar sistemas de IA de alto riesgo, pero Newsom argumentó que era demasiado amplia y podría sofocar la innovación en la industria tecnológica del estado.

La transparencia es dar confianza a las empresas europeas de que el sistema no es una caja negra, que no viola el copyright, que no está discriminando. Que por eso se retrasen seis meses la adopción de una IA que no tiene un modelo de negocio claro, no nos retrasa para nada. (Carme Artigas — ex secretaria de Estado de Digitalización e Inteligencia Artificial)

Artigas también rechaza los argumentos de las tecnológicas contra la regulación. “No es cierto que en la UE haya una fragmentación normativa. Tanto el Reglamento de la IA. como la Ley de Mercados Digitales y la Ley de Servicios Digitales son de aplicación directa, es decir son exactamente las mismas normas para todos los países de la UE”, replica la experta, que también forma parte del consejo asesor de la consultora Llorente y Cuenca.

“Solo se pide transparencia. Ninguna de esas empresas puede renunciar a un mercado de 600 millones de consumidores porque se pida transparencia, ya que no puede haber adopción masiva si la gente no se fía”, desarrolla Artigas: “La transparencia es dar confianza a las empresas europeas sobre que el sistema no es una caja negra, que no utiliza material con copyright sin permiso, que no está discriminando. Que por eso se retrasen seis meses la adopción de una IA que no tiene un modelo de negocio claro no nos retrasa para nada”.

En la nueva Comisión Europea de Ursula Von der Leyen las competencias relativas a las grandes tecnológicas quedan repartidas entre varios comisarios. Por un lado, Teresa Ribera asumirá las funciones de Competencia, el equipo encargado de impedir que abusen de su posición dominante. La misión de impulsar la tecnología desarrollada en el continente recaerá sobre la finesa Henna Virkkunen (PPE), mientras que las tareas de regulación del mercado interior, incluido el digital, recaerán sobre el francés Stéphane Séjourné (Liberales).