¡ALERTA de la Universidad Oberta de Catalunya entre otras instituciones!:
Uno de los grandes misterios del mundo digital es si realmente existe alguien
que se haya leído de manera sistemática los términos y condiciones de uso de
plataformas y servicios digitales, redes sociales o, más recientemente, ecosistemas de inteligencia artificial. Y, aunque pueda
parecer gracioso, en realidad es peligroso no hacerlo, a pesar de que en muchos
casos vaya a servir de poco porque el común de los mortales probablemente no
podría comprender en toda su extensión determinados límites ni prácticas que le
afectarán directamente como usuario de esos servicios.
Sin embargo, de sobra es sabido por casi cualquier
usuario que todo aquello que comparta a través de internet
quedará insertado en una especie de 'esfera pública' que le
hará perder el control no ya de su propiedad, sino de las derivadas que puedan
sucederse. No en vano, cualquier contenido publicado
por un usuario en redes sociales puede ser replicado por otros usuarios,
modificado, alterado, tergiversado o, simplemente, descargado para usos
particulares, lícitos o no, que desconoceremos en la mayoría de las ocasiones.
Verlo así da vértigo, pero no siempre reparamos en ello.
“En muchas ocasiones no nos damos
cuenta de la cesión de derechos que otorgamos cuando hacemos uso de un
determinado serverio digital. Sólo vemos lo que nos aporta, pero no a lo que
nos estamos comprometiendo.”
"Muchas veces no nos damos cuenta de la cesión de derechos que
otorgamos cuando hacemos uso de un determinado servicio digital. Solo vemos lo
que nos aporta, pero no a lo que nos estamos comprometiendo",
reconoce Silvia Martínez,
profesora colaboradora de los Estudios de Ciencias de la
Información y de la Comunicación de la Universitat Oberta
de Catalunya (UOC) e
investigadora del grupo GAME.
Por si todo esto fuera poco, la irrupción de la inteligencia artificial
(IA) en nuestras vidas, y en todos los ámbitos de esta, implica añadir una capa
adicional de riesgo a la actividad digital de los usuarios. No solo por el
hecho de que estos sistemas pueden alterar imágenes y vídeos de personas reales
con asombrosa facilidad y por parte de cualquiera, sino porque esas imágenes y vídeos se convierten, a su vez, en material para
el entrenamiento y la mejora de estos sistemas. "Imagina que
enseñas a un niño a reconocer una cara: le muestras varias fotos de la misma
persona, desde distintos ángulos, con diferentes expresiones. Poco a poco,
empieza a identificarla. Pues las inteligencias artificiales aprenden de forma
parecida: para entrenarlas con imágenes personales,se
les da una colección de fotos o vídeos en los que aparece siempre la misma
persona. Cuantas más imágenes tenga, mejor aprenderá sus rasgos: la forma de
los ojos, la curvatura de la sonrisa, el tono de piel, la manera en que se
arrugan los párpados al reír…", explica Antonio Pita, profesor de los Estudios de Informática,
Multimedia y Telecomunicación de la UOC.
La ciencia detrás de la IA
Aunque parezca simple, detrás de este proceso existe una complejidad
técnica que evidencia la naturaleza y el potencial de un modelo extenso de
lenguaje (LLM), o sea, el 'cerebro' que hay detrás de una IA. "Detrás de
este proceso hay redes neuronales profundas, una tecnología inspirada, de forma
muy simplificada, en cómo funciona el cerebro humano",
añade el profesor, quien destaca que "estas redes procesan millones de
datos visuales y aprenden a representar una cara como una especie de 'huella
matemática' muy precisa, pero invisible al ojo humano". Simplificando:
cuando una IA aprende a identificar un rostro humano, también se empodera para
poder crear, en adelante, "nuevas imágenes hiperrealistas a partir
de lo aprendido", apunta. Y es ahí donde nacen los deepfakes y memes que pueblan las redes
sociales. Algunos, con la simple intención de hacer reír; otros, con la de
manipular, engañar e incluso estafar a terceros.
Dónde termina el humor y comienza la estafa
Existe una
clara diferencia entre el uso que hagamos los propios usuarios de nuestras
imágenes para 'jugar' con la inteligencia artificial y el que hagan terceros no
autorizados con intereses no siempre lícitos. En ambos casos, sin embargo,
nuestra información queda a merced del propietario del servicio o plataforma,
que "no sabemos qué hará después con lo que estamos subiendo a internet,
en unos casos por no consultar las bases o condiciones que aceptamos y en otros
porque, aunque se lean, el lenguaje empleado dificulta su comprensión",
alerta la profesora Silvia Martínez.
Recientemente se ha filtrado que Meta, que se reserva el derecho
de utilizar los contenidos que los usuarios comparten en Facebook o Instagram
para entrenar a sus modelos de IA, podría plantear acceder a todas
las fotografías que almacenen los usuarios en sus dispositivos, incluso
aquellas que no han compartido en redes sociales, para este mismo fin. Sería
algo opcional a lo que el usuario podría negarse explícitamente, pero evidencia la voracidad de estas plataformas a la hora de buscar nuevos
materiales con los que mejorar su tecnología, en el marco de una
encarnizada carrera por dominar un sector que promete generar un negocio que podría rondar los 300.000 millones de dólares ya en
2025, según varios estudios independientes, entre ellos los de
Mordor Intelligence y Fortune Business Insights.
A pesar de lo llamativo de esta propuesta, en la Unión Europea sería de
difícil aplicación. "En Europa, el uso de imágenes personales para
entrenar sistemas de IA está sujeto a normas estrictas de protección de datos,
como el RGPD. Cualquier uso de datos personales, como imágenes que publica un
usuario, requiere una base jurídica válida como el consentimiento del interés
legítimo", destaca Eduard Blasi, profesor colaborador de los Estudios de Derecho y Ciencia Políticade la UOC.
En este sentido, el nuevo Reglamento de inteligencia
artificial (AI Act) busca regular los usos de esta tecnología
en la UE e "introduce obligaciones adicionales cuando se usan datos
personales en sistemas de alto riesgo", añade el experto, quien subraya
las diferencias del enfoque europeo respecto al estadounidense, donde predomina
"un modelo más flexible, basado en la autorregulación empresarial y el
principio del fair use", o el chino, que
"adopta un enfoque mucho más centralizado y orientado al control estatal",
y que "permite el uso masivo de datos, incluidos los biométricos, por
parte del Estado y grandes empresas tecnológicas, con una protección más débil
de los derechos individuales frente al interés público o la seguridad
nacional", apunta.
Los riesgos de la IA
Cuando despunta cualquier tecnología, los agoreros se afanan por
propagar los riesgos inherentes a esta. Pero el caso de la inteligencia
artificial es especialmente sensible, dadas las capacidades que tiene esta
tecnología. "Los riesgos que plantea esta tecnología no son
hipotéticos ni lejanos: ya están aquí, y afectan tanto a empresas
como a personas corrientes. Uno de los más graves es el robo de identidad: con
solo unas cuantas imágenes públicas, una foto de perfil o un vídeo en redes,
una IA puede generar un vídeo hiperrealista en el que tú pareces hablar, mirar
a cámara o decir cosas que jamás has dicho", explica el profesor Antonio
Pita. Y ese ni siquiera es el mayor riesgo. "En muchos casos, la víctima
no llega ni a saber que su imagen ha sido utilizada hasta que el daño ya está
hecho. Y todo esto afecta no solo a grandes figuras, sino también a personas
corrientes que, sin saberlo, pueden ver su imagen usada en contextos falsos,
dañando su reputación y confianza", advierte, antes de subrayar que "literalmente, alguien puede 'ser tú' en vídeo sin que tú lo
sepas".
En este sentido, no resulta sencillo defenderse
de estas prácticas. A lo sumo, los usuarios pueden vetar a las
plataformas el uso de sus fotos y vídeos para entrenar a sus modelos de IA.
Pero el verdadero riesgo está en lo que pueden hacer otros usuarios con
esas fotos y vídeos compartidos. Y ahí el único veto es no usar esas
plataformas, quedándonos aislados de un ecosistema donde se mueve la vida
digital, aunque el profesor Eduard Blasi subraya que
"el
hecho de que compartamos libremente una imagen en redes sociales no significa
que perdamos todos nuestros derechos sobre ella", ya que "nuestra imagen sigue protegida por el derecho fundamental
a la propia imagen, y también por la normativa de protección de datos
personales", que "reconoce al titular del dato un poder de control
sobre su información; es decir, decidir, por ejemplo, quién la puede tratar,
para qué fines y durante cuánto tiempo", explica.
A pesar de ello, parece que el papel del legislador no siempre será
capaz de responder a estos retos. "Para regular, primero hay que tener en
cuenta que la tecnología no es en sí misma buena o mala; depende de cómo y para
qué se use. Y, en segundo lugar, evoluciona muy rápido y opera en un entorno
globalizado en el que se producen infinidad de interacciones al día, lo que
dificulta también el control", reconoce Silvia Martínez. Crear un deepfake de otra persona ya está más o menos
prohibido, en función de la intencionalidad que tenga el vídeo, pero eso no
evita que sigamos viendo fotos y vídeos manipulados, en ocasiones con la
asombrosa connivencia por omisión de las plataformas, que continúan permitiendo
anuncios de estafas que utilizan a personas reales dando discursos falsos para
vender un producto o servicio.
"Aunque la mayoría de las imágenes y
los vídeos generados por IA son detectables porque sus creadores no son
profesionales, aquellas imágenes o vídeos generados por
profesionales son prácticamente indistinguibles de la realidad", advierte
Antonio Pita. Eso, unido a que la alfabetización digital de
gran parte de la población deja mucho que desear, hace que estos
contenidos salgan a cuenta para quien los crea. "Un ejemplo impactante:
hace unos meses, en Vigo (Galicia), una empresa sufrió una estafa sofisticada.
Unos ciberdelincuentes convocaron a un trabajador a una videollamada
aparentemente con su CEO, pero era una IA imitando la voz y los gestos del
director. El empleado transfirió 100.000 euros, pensando que era una orden
real", relata el profesor, quien añade que "parece ciencia ficción; pero, por desgracia, es muy real". Y esa es la realidad en la
que vivimos, a veces sin darnos cuenta.
A pesar de todo, hay una pequeña ventana a la
esperanza: las plataformas ya están etiquetando el
contenido generado por IA para alertar a los usuarios, y empiezan a
ganar terreno algoritmos y servicios capaces de analizar imágenes y vídeos para
determinar si han sido manipulados. Entre eso y "el sentido común, el pensamiento crítico y el conocimiento",
como aconseja el profesor Pita, los usuarios ya tenemos herramientas para
defendernos de la cara negativa de una tecnología llamada a facilitar nuestras
vidas en todos los ámbitos imaginables.
No hay comentarios:
Publicar un comentario