Actualidad | Sandra Várez
José Luis Calvo: «Es muy probable que
los deepfake lleguen a ser indistinguibles»
La creación de
imágenes sexuales falsas de 22 menores lleva a este experto en inteligencia
artificial a pronosticar «un resurgimiento de las humanidades» para afrontar
los desafíos
Lo ocurrido en
Almendralejo (Badajoz), donde hasta 22 menores fueron desnudadas por una
aplicación de inteligencia artificial (IA), es solo un ejemplo de las
consecuencias de dejar vía libre al uso de una tecnología con derivadas
impredecibles. Uno de los informes más citados, el realizado por Deeptrace, cifra
en un aumento exponencial de un 100 % cada seis meses de archivos falsos
generados por inteligencia artificial, los deepfake; aunque el volumen real de este contenido se desconoce. José Luis
Calvo, ingeniero informático y experto en IA, reconoce los límites para
combatir estos abusos legalmente y apuesta por la educación.
¿Es el caso de
Almendralejo solo la punta del iceberg?
La tendencia en la IA es que cada vez sea más accesible para todo el mundo, de
forma que cualquiera va a poder crear contenido falso, ya sea en imágenes,
vídeo, audio o texto. Esto amplía los riesgos, tanto por el volumen de imágenes
generadas como por el grado de suplantación. Hay algunas deepfake muy conocidas, como esa imagen del Papa
con un abrigo de Balenciaga y otras que fingen conversaciones entre políticos,
utilizadas para programas de entretenimiento. Son inofensivas o identificables.
La complicación está en su uso en el ámbito local o cotidiano, porque el
contenido se distribuye sin desmentido y la víctima queda especialmente
indefensa. Estos deepfake actualmente son
identificables para el ojo experto. Sin embargo, a medio plazo, viendo su
evolución y progreso, es muy probable que lleguen a ser indistinguibles.
Se ha puesto el foco
en los menores que utilizaron la herramienta. Pero, ¿no debería buscarse la
responsabilidad en quien la crea?
Depende del
propósito. Si la aplicación solo sirve para eso, sin duda se le debería exigir
al fabricante que ponga medidas para evitar un uso delictivo. Pero, en muchos
casos, estas nacen con un propósito que no es dañino. Pedir la responsabilidad
sería como acusar al inventor o fabricante de cámaras fotográficas de su uso,
por ejemplo, para la difusión de pornografía infantil. Creo, por tanto, que en
muchos casos la responsabilidad se debe buscar en el uso y no en la
herramienta.
¿La solución pasa por
la regulación o por la educación?
Ambas son necesarias. El problema es que es difícil adelantarse, porque el
avance de la IA es muy rápido y el regulador necesita un tiempo para entender
estos cambios. Y existe el riesgo también de que las leyes se pasen de frenada
y regulen limitando el desarrollo tecnológico, lo que haría imposible que
Europa se pusiera al nivel de Estados Unidos, China, o incluso Oriente Medio.
Es un equilibrio difícil, por lo que es exigible diligencia.
Geoffrey Hinton, uno
de los padres de la IA generativa, anunciaba este año que dejaba Google,
avisando de los peligros de estas tecnologías. No ha sido el único. ¿Se nos ha
ido de las manos el desarrollo tecnológico?
Es cierto que
hay mucha alarma. Sin embargo, la mayoría de estas alarmas son altamente
especulativas y no concretan cómo se puede llegar a peligros de primer nivel.
Hay extremos muy mediáticos que plantean que el desarrollo de la IA puede
llevar al fin de la humanidad, como hemos visto en novelas y películas de
ciencia ficción. El principal riesgo es que estas voces distraigan de otros
problemas menos especulativos como el cambio climático o el impacto que
probablemente sí tendrá esta tecnología en el futuro del trabajo, no solo por
la cantidad de trabajo automatizado, sino también por un posible cambio en lo
que entendemos como trabajo y en cómo se distribuye la riqueza.
¿Cuál es el futuro de
la universidad con aplicaciones como ChatGPT? Hay quienes hablan de que se
modificará la capacidad de nuestro cerebro.
Es
contraintuitivo, pero parece que la educación superior, especialmente las
especialidades técnicas o ingenierías, serán las más afectadas por la entrada
de la IA. Ciertamente, es probable también que todos estos cambios acaben
afectando a nuestro cerebro, de igual manera que, según ciertos estudios, la
aparición de los GPS ha modificado nuestra capacidad de orientación o los
móviles la de memorizar números de teléfono. Esto no es necesariamente malo.
Creo que hay que verlo como una evolución.
En el debate entre la
priorización de la formación tecnológica o la humanista algunos dicen que el
futuro va por una combinación entre las dos. ¿Va por ahí la solución hacia una
tecnología más humana?
En mi opinión
sí, son necesarias ambas. Creo que vamos a vivir un resurgimiento de las
humanidades, puesto que hay muchas cuestiones que requieren comprensión de las
posibilidades y de las limitaciones de la tecnología, junto con un análisis
ético de esas posibilidades. En un corto plazo se necesitarán equipos que
puedan afrontar los problemas tanto desde la perspectiva tecnológica como la
humanista. En este sentido, aunque hay carreras universitarias que se verán
afectadas, hay otras que se reforzarán, como es el caso de las humanidades y la
filosofía, precisamente porque desarrollan el pensamiento crítico y son más
difícilmente sustituibles por la IA.
No hay comentarios:
Publicar un comentario
Promueve el diálogo y la comunicación usando un lenguaje sencillo, preciso y respetuoso...