Los usuarios de Facebook e Instagram, las redes sociales estrella de la tecnológica, han recibido un mensaje en el que se les informa de que, a partir del 26 de junio, sus datos serán usados para entrenar los modelos de IA de la compañía.
Quienes no quieran que se usen sus datos para ese cometido pueden negarse a ello, pero el camino para hacerlo es largo y confuso.
Pero cómo hacerlo
De ahí que muchos usuarios hayan difundido en redes pequeñas chuletas explicativas para lograrlo. Una de las guías más compartidas ha sido la del músico, youtuber y diseñador de producto Martin Keary (@Tantacrul en X), reseñó El País en nota de prensa.
El anuncio de Meta ha causado rechazo entre los usuarios más celosos de su intimidad, que se niegan a que una compañía privada entrene sus modelos a partir de sus textos e imágenes.
Pero las quejas no están solo motivadas por la legítima defensa de la privacidad de los usuarios. Hay sectores profesionales, como el de los ilustradores y artistas, que ven en esta nueva política de Meta un ataque frontal a su trabajo.
Este colectivo está enzarzado en EEUU en una batalla legal contra varias herramientas de IA generativa que se aprovechan de su trabajo.
Un grupo de creadores estadounidenses capitaneado por Karla Ortiz presentó en enero una demanda contra Stability AI (empresa responsable de Stable Diffusion), Midjourney y DeviantArt por usar sin su consentimiento.
“Nos estamos preparando para expandir nuestras experiencias de AI at Meta [sus herramientas de IA generativa] en tu región. (…) Para poder traerte estas experiencias, nos basaremos en la base jurídica denominada intereses legítimos para utilizar tu información con el fin de desarrollar y mejorar IA en Meta”, indica el mensaje de la compañía de Mark Zuckerberg a sus usuarios.
¿Puede Meta hacer un cambio de este tipo en las condiciones de su servicio? Algunos juristas creen que no está claro. Es el caso de Jorge García Herrero, abogado especializado en protección de datos. “Meta tiene que argumentar y demostrar que sus intereses prevalecen sobre los derechos de los interesados para hacer lo que pretende hacer”, explica.
En este balance desempeñan un papel muy importante las legítimas expectativas de los interesados, los usuarios de la plataforma. “Es obvio que quien subiera sus textos hace diez años no esperaba que iban a servir para entrenar modelos de IA, ni que sus fotos iban a servir para perfeccionar modelos de reconocimiento facial, camuflados comercialmente con el reclamo ‘Etiqueta a tus amigos”, abunda.
Problemas para rechazar la nueva política
El proceso para rechazar que los datos de uno sean usados para entrenar la IA de Meta son distintos en Facebook e Instagram. En el caso de Facebook, hay que entrar desde el ordenador y pinchar en la foto de perfil. A continuación, se debe ir a “Configuración y privacidad” y seleccionar “Configuración”.
Luego, seleccionar “Política de privacidad” y, luego, “Derecho a objetar”. Pero no basta con dar a ese botón: hay que rellenar un pequeño formulario en el que se especifique que no se quiere que los datos de esta cuenta sirvan para entrenar la IA de Meta.
La ruta de Instagram empieza en la app móvil. Hay que ir al perfil, pinchar en el menú de las tres barras que aparece en la parte superior derecha de la pantalla, bajar hasta donde pone “Información”, pinchar en “Política de privacidad”, luego bajar hasta seleccionar “Oponerte al tratamiento”, “oponerte” e, igual que en el caso de Facebook, rellenar el formulario en el que se explicita el rechazo a que se usen los datos en el entrenamiento de modelos de IA.
Muchos usuarios estadounidenses han compartido en redes que, después de seguir ese proceso hasta el final, obtienen una respuesta negativa. Para evitar eso, en el caso de los ciudadanos de la UE, es importante nombrar en ese pequeño texto que hay que rellenar el Reglamento General de Protección de Datos (RGPD).
La normativa europea obliga a las empresas digitales a especificar a los usuarios qué van a hacer con sus datos, y faculta a estos a bloquear el uso de esos datos cuando lo estimen oportuno.