Several CVC papers were presented at WACV 2022

The Winter Conference on Applications of Computer Vision, WACV 2022, took place on 4-8 January. CVC contributed with several papers:   Class-Balanced Active Learning for Image Classification (Javad Zolfaghari Bengar, Joost van de Weijer, Laura Lopez Fuentes, Bogdan Raducanu)  One-shot Compositional Data Generation for Low Resource Handwritten Text Recognition (Mohamed Ali Souibgui, Ali Furkan Biten, Sounak … Read more

CCSC 2021

The 8th edition of the Congress on Social Communication of Science (CCSC 2021) will be held at CosmoCaixa Barcelona from September 29 to October 1. This congress brings together professionals in the field of dissemination and social communication of science and has become the largest space in Spanish for debate and updating of scientific communication work developed by … Read more

ACMCV 2021 – 8th Annual Catalan Meeting on Computer Vision

The 8th Annual Catalan Meeting on Computer Vision (ACMCV 2021) will be held online on September 22. The aims of this meeting are to strengthen the Catalan academic and industrial computer vision network, to disseminate the most relevant works and to allow students from the Master in Computer Vision meet with members of the Catalan … Read more

Artificial Intelligence & Big Data Congress 2021

The 7th edition of the AI & Big Data Congress will be held the 14th and 15th of September in AXA Auditorium Barcelona. The first day will deliver live plus streaming sessions.  Second day sessions will be fully online. We detail the CVC participation hereafter: September 14th Session “Health and well-being sector: successful POCS” (from … Read more

ICDAR2021 Conference (5-10 September)

The 16th International Conference on Document Analysis and Recognition, (ICDAR 2021), will be held at Lausanne (Switzerland) with a hybrid format (onsite and online) from 5th  to 10th  September. This year’s utter programme is composed of top-notch oral sessions, workshops and competitions, among others, in which a large number of CVC researchers are participating. It is worth noting … Read more

CVCR&D 2021

The 16th CVC Workshop on Computer Vision Trends and Challenges (CVCR&D2021) will be held on July 23rd. CVCR&D will allow the presentation of the current state of the art of the students’ research and the analysis of the proposals for close future lines of work. All this will be aligned with the yearly follow-up event for the … Read more

Debate de clausura de la segunda edición del ciclo “Inteligencia Artificial, ética y participación ciudadana”

La segunda edición del ciclo de diálogos ciudadanos “Inteligencia Artificial, ética y participación ciudadana” llega a su fin. Durante los cinco ejes de los que constó (videovigilancia y seguridad; sesgos en los algoritmos; Industria inteligente y medio ambiente; fake news y deepfakes; y Big Data) se buscó proporcionar a la ciudadanía las herramientas para entender … Read more

CVC at the AI for Industry International Congress

The Computer Vision Center will participate in the AI for Industry International Congress, a virtual event organized by Secpho to discover the latest solutions in Artificial Intelligence applied to the industrial sector. The event will be held on April 28-29th through the Secpholand platform, an innovative online business tool that simulates an interactive virtual environment. … Read more

CVC at MEMEnginy 2021

The Computer Vision Center will participate at MEMEnginy 2021, organized by the UAB’s Engineering School, which this year will be held virtually due to the COVID-19 pandemic situation. On the 29th of April, from 10am to 2pm, we will present our training opportunities, both for undergraduate and graduate students, as well as a talk given … Read more

Fake news, deepfakes y desinformación en la era digital: una reflexión sobre hacia dónde vamos y qué soluciones tomar

Lidiar con las fake news y la desinformación es uno de los grandes retos de la sociedad del siglo XXI. Aunque los bulos y la información tergiversada llevan conviviendo con nosotros desde los orígenes de la humanidad, tal y cómo expone Yuval Harari en su libro “Sapiens, de animales a Dioses”,  el auge de Internet y las redes sociales han facilitado que actualmente este tipo de contenidos se multipliquen y tengan una difusión casi sin límites en periodos de tiempo muy cortos, llegando a poner en peligro el propio funcionamiento de la democracia, como se vio, por ejemplo, en el reciente asalto al Capitolio de EE.UU. Además, el avance de la Inteligencia Artificial, ha provocado que la manipulación o generación de vídeos, imágenes y audios falsos (conocidos como deepfakes) sea cada vez más realista, económica y fácil de realizar.

En un momento en el que cada vez es más difícil discernir entre lo real y lo imaginario, es importante reflexionar sobre el impacto que puede tener esta tecnología en la sociedad y sobre cómo debe abordarse este problema desde diferentes ámbitos. Con este objetivo en mente, el Centro de Visión por Computador (CVC), en colaboración con el Observatorio Social de la Fundación “la Caixa”, organizó el pasado 8 de abril en el Palau Macaya de Barcelona el debate “Fake News y Deep Fakes: sobreviviendo a una realidad inventada“, dentro de la segunda edición del ciclo “Inteligencia Artificial, ética y participación ciudadana”. Este debate fue moderado por Núria Martínez Segura, técnica de comunicación y marketing del CVC y contó con la participación de:

  • Dimosthenis Karatzas, investigador del CVC y profesor de la Universidad Autónoma de Barcelona (UAB).
  • Mònica Gasol, jefa del Área de Contenidos del Consejo Audiovisual de Cataluña (CAC)
  • Alexandre López Borrull, profesor de los estudios de información y comunicación de la Universitat Oberta de Catalunya (UOC).
  • Naiara Bellio, coordinadora de Maldita Tecnología
  • Alba Moreno, estudiante de Derecho de la UAB y representante del focus group.

A pesar que el debate se vio afectado por las restricciones a causa de la pandemia de la COVID-19, que redujo el aforo de la Sala de Actos del Palau Macaya, contó con más de 200 espectadores que lo siguieron en directo a través de las redes sociales del CVC.

Deepfakes: ¿son actualmente el principal problema de la desinformación?

Cuando hablamos de deepfakes generalmente nos referimos a vídeos y/o audios en los que la cara y/o la voz de una persona han sido manipuladas mediante el uso de Inteligencia Artificial de manera que ese contenido alterado parece auténtico. Esta tecnología puede usarse con fines desinformativos ya que, como mencionó Naiara Bellio, puede ayudar a cumplir los dos objetivos principales de la difusión de contenidos falso: influir en una batalla ideológica y manipular el discurso público.

Sin embargo, tal como remarcó el Dr. Dimosthenis Karatzas, no todos los usos de esta tecnología son negativos: “Las tecnologías no están creadas con el objetivo específico de crear fake news. De hecho, no existe una tecnología de fake news; existen tecnologías de generar contenidos. Estas tecnologías tienen varias aplicaciones, positivas y negativas. No existe una tecnología mala o buena, sino que depende del uso que se le dé”. Para ejemplificarlo, mencionó la tecnología Lip-Sync (sincronía de labios), que consiste en mover la boca de una cara para que parezca que diga otra cosa. “Esto, puesto en la boca de un actor para que en vez de hablar inglés hable español y que así tenga correspondencia con la traducción, es un uso bueno. Puesto en boca de un presidente lanzando un mensaje con fines bélicos, es un problema”, concluyó el subdirector del CVC.

En este sentido, Naiara explicó que, por parte de los verificadores de contenido, los deepfakes no son todavía un problema con el que suelan lidiar: “este tipo de tecnología todavía no es un formato que prolifere o se haya extendido hasta ese punto de gravedad con el que se califica. En nuestro medio recibimos vídeos con desinformación a diario, pero normalmente se trata de imágenes manipuladas o editadas, vídeos ralentizados o mal subtitulados, pero no este tipo de tecnología”. Sin embargo, afirmó que es ingenuo pensar que no puedan ser un problema más adelante, cuando esta tecnología sea más accesible y simple para el usuario medio.

Los ponentes coincidieron en que los deepfakes y las fake news son solo una parte muy pequeña de todos los formatos que se utilizan actualmente con fines desinformativos y que, por lo tanto, debe abrirse el foco y abordar el problema de una forma más global: “No toda la generación de contenido se hace de forma automática. La mayoría del contenido de hoy en día se genera por personas: tweets, blogs, likes, etc.”, explicó el Dr.  Karatzas.  La Sra. Bellio fue un paso más y añadió: “Nosotros pedimos que no se hable únicamente de fake news porque no existe como tal una noticia falsa. Pedimos que se llamen contenidos falsos o desinformación, porque al fin y al cabo lidiamos con diferentes formatos y grados de desinformación. Lo que más nos encontramos en Maldita a la hora de analizar no tiene nada que ver con lo que era antes, que solía tener el formato de una noticia de un medio tradicional. Actualmente vemos que los formatos en los que circula la desinformación son sujetos más simples: memes, imágenes y cadenas de texto que circulan por WhatsApp o montajes de titulares”.

El papel de las redes sociales en la desinformación

La tecnología tiene actualmente un papel muy relevante en cuanto a la velocidad, el alcance y la viralización de la desinformación. En este sentido, Mònica Gasol explicó en su intervención inicial el cambio de paradigma que han experimentado desde el Consell Audiovisual de Catalunya (CAC), como órgano regulador y supervisor del cumplimiento de la normativa audiovisual: “Hasta hace poco, los reguladores de contenidos supervisaban los contenidos emitidos por los operadores lineales (radio y televisión), porque allí estaban la mayoría de los contenidos audiovisuales. El avance tecnológico ha producido un cambio acelerado que se plasma en la existencia de nuevos medios, a los que se accede desde múltiples dispositivos y que crean cantidades ingentes de contenidos los cuales, a su vez, están producidos por un número indeterminado y muy elevado de agentes. Hemos pasado de un universo limitado en cuanto a agentes y a contenido a un universo prácticamente infinito”.

El Dr. Alexandre López señaló que debemos poner el foco en nuestra relación con las redes sociales: “Hemos pasado de un momento inicial en el que las redes sociales parecían lo mejor que existía a ver los lados oscuros que a veces presentan. No solo en términos de privacidad, sino en la capacidad que tienen de viralización y de altavoz respecto a las fake news”. Además, añadió que el problema no reside solo en las redes sociales sino en los usos que algunos medios de comunicación hacen de ellas, usando prácticas para ser los primeros en lanzar una noticia o el conocido clickbait (titulares engañosos o sensacionalistas), que han puesto en peligro la veracidad de sus contenidos y minado su credibilidad y prestigio.

Por su parte, Dimosthenis Karatzas remarcó: “La tecnología siempre se ha usado para ganar elecciones: Abraham Lincoln con el telegrama, Franklin D. Roosevelt con la radio, John F. Kennedy con la televisión y, recientemente, Donald Trump con Twitter. Pero antes, la tecnología siempre había sido una herramienta para que un mensaje llegara a más gente y ampliar el foco. Con las redes sociales pasa lo contrario: se usan para crear burbujas informativas. Tú decides a quién seguir y de quién recibir información. La Inteligencia Artificial está en el centro de esta creación de burbujas: si tienes un modelo que elige el contenido que te va a enseñar y ve como reaccionas, puede adecuar la manera en cómo selecciona contenido para alimentarte con lo que tú quieres escuchar. Este modelo es muy fácil tunearlo para que elija unos contenidos concretos para que tú pienses de una manera muy concreta”. En una de sus intervenciones finales, Dimosthenis insistió: “La creación de deepfakes quizás no es lo más importante ahora mismo. La tecnología de comunicación yo creo que es la importante: los sistemas de Inteligencia Artificial que crean estas burbujas de información y que deciden lo que vas a ver y lo no. Este es el punto que a nivel tecnológico debemos mirar y quizás regular”.

La compleja (y necesaria) tarea de legislar en materia de fake news

En su intervención principal, Alba Moreno, representante del focus group y estudiante de Derecho, reveló la falta de regulación que actualmente hay en este ámbito, siendo, sin duda, una de las principales preocupaciones de los integrantes del grupo de trabajo.  

Mònica Gasol explicó que, a nivel europeo, hay poca normativa en este ámbito, pero sí que se han definido unas líneas de actuación, que se podrían resumir en cuatro ejes: (1) intentar mejorar la transparencia de las plataformas en lo referente a los sistemas de difusión y funcionamiento de algoritmos, (2) detección de las fakes news y los focos de desinformación a través de la formación de redes verificadoras, (3) apoyo al periodismo de calidad y (4) empoderamiento de la ciudadanía mediante educación mediática. Además, la representante del CAC remarcó: “hay que tener en cuenta que cualquier actuación en este ámbito debe tener un respecto estricto a la libertad de expresión”.

Alba explicó que algunos países europeos, como es el caso de Alemania, han optado por dar a las propias plataformas la capacidad de autorregularse y que sean ellas mismas las que califiquen los contenidos y actúen de manera punitiva. Una solución con la que no acaba de coincidir: “Al final debe haber un grupo especializado de encontrar o supervisar estas diferentes informaciones, pero en contraposición ¿es posible controlar toda esta información? Es muy difícil. Y esto se mueve tan rápido que es imposible controlarlo”.

Naiara Bellio también opinó sobre el problema de que las redes sociales sean espacios autorregulados, sobre todo, por la falta de transparencia en algunos de sus procesos y en las métricas que usan para tomar una decisión como, por ejemplo, suspender la cuenta de una figura pública, como se ha visto recientemente con el caso de Donald Trump. “¿Quién está tomando esta decisión? ¿Qué parámetros utilizan para evaluarlo? Tendría que haber una discusión más amplia y con agentes que no sean únicamente de propia la empresa, como académicos, expertos en liberta de expresión, fact-checkers, etc. Nadie quiere que una empresa o que un gobierno diga qué es aceptable y qué no en las redes sociales y quién puede tener una cuenta y quién no. El debate debería ser más amplio e incluir otros actores que actualmente no se están teniendo en cuenta”, manifestó la coordinadora de Maldita Tecnología. En esta misma línea, la Sra. Gasol explicó: “La Comisión Europea creó un código de conducta al que se adhirieron algunas de las plataformas más masivas, y que fue seguido y evaluado por un grupo de expertos multidisciplinar. Uno de los elementos que consta en este código es justamente una mayor transparencia por parte de las plataformas en todo lo que concierne a su actuación, tanto a la constitución de estas burbujas informativas como a los criterios que utilizan para aplicar unas u otras sanciones en determinados contenidos”.

En cuanto a cómo debería ser la regulación en este ámbito, hubo diversidad de opiniones entre los ponentes. Mientras algunos de ellos, como Alba y Naiara, no eran partidarias de prohibir contenidos o cerrar cuentas, puesto que podrían poner en riesgo el derecho a la libertad de expresión, otros tenían una visión más “intervencionista”: “A mí sí que me gustaría que los poderes legislativos intervinieran y le dijeran, por ejemplo, a YouTube, que retire los vídeos de propagadores de las pseudociencias, porque todo el mundo no está preparado para entender que eso es falso. Se tiene que respetar la libertad de expresión, pero no la de desinformar. Y aquí es donde tenemos que ponernos de acuerdo, hasta dónde es esta frontera”, opinó el Dr. López. A lo que Mónica añadió: “La regulación es un debate que se debe tener en profundidad partiendo del respeto a la libertad de expresión, pero también hay otros derechos que confluyen y que se deben tener en cuenta. En vista a los resultados de la autorregulación, creo que la necesidad de regulación no hay que descartarla”.

A pesar de esta diversidad de opiniones, en lo que sí que coincidieron todos los ponentes fue en que, en cuanto a la desinformación, no existe una única solución y, ni mucho menos, debería recaer todo el peso en la regulación.

Educación, un antídoto para combatir la desinformación

La desinformación es algo que nos afecta a todos y, como explicó Alexandre Lopez, cada grupo de edad lo sobrelleva de forma diferente: “La gente joven es la que está más acostumbrada a cambiar contenidos o generarlos de nuevo, por lo que van aprendiendo a discernir los documentos o vídeos que reciben. La gente mayor, por su parte, es la que tiene más confianza en los medios de comunicación tradicionales, pero, a la vez, reciben información de una forma directa, como por WhatsApp, a la que le dan veracidad porque proviene de alguien cercano o de confianza. Al final, todos los colectivos tienen problemas y no es un problema de periferias; las clases medias tienen también dificultades para verificar y saber si un contenido es falso o no”. A lo que el Dr. Dimosthenis Karatzas añadió: “Los jóvenes tienen más acceso a las redes sociales pero los números dicen que los mayores diseminan unas 7 veces más la información que es falsa. Todas las edades tienen algo que decir o algo que hacer en esta cadena de desinformación y no estaría bien enfocarnos en unos u otros”.

En este sentido, los ponentes coincidieron que la educación y la alfabetización mediática y tecnológica son soluciones muy importantes, que deben llegar a todos los grupos de edad y centrarse en las necesidades de cada uno de ellos: “Hace falta educación continua, no solo en la universidad sino a lo largo de la vida y, especialmente, cuando las cosas van cambiando”, expresó el Dr. D. Karatzas y añadió: “También hace falta un cambio en el currículum. Los ingenieros necesitan formarse también en filosofía, historia, ciencias sociales, para poder tener el marco mental que les permitirá pensar sobre lo que están desarrollando. Y lo mismo, al contrario, en los grados de ciencias sociales es importante que se dé una pincelada sobre cómo avanza esta tecnología”. A lo que el Dr. A. López concordó y expresó la necesidad de encontrar el equilibrio entre especialización y multidisciplinariedad en los futuros profesionales. “Intentemos revertir esto y que una educación o profesión pueda ser transversal, desde los ingenieros que hablan de ética hasta los filósofos que hablan de números o cualquier ámbito. Sí que nos hemos de especializar, pero con un conocimiento base”, añadió Alba Moreno a este punto.

Hablando de actuaciones específicas, Mònica Gasol explicó que una de las líneas de actuación del CAC es la alfabetización mediática mediante el programa educativo EduCAC, en el que participa también el Departamento de Educación de la Generalitat de Catalunya, y que tiene como objetivo fomentar el espíritu crítico en la infancia y la juventud. Por su parte, Naiara Bellio, explicó el compromiso de Maldita.es con la alfabetización mediática de la ciudadanía, a todos niveles: “Desde Maldita tenemos muchos proyectos de educación y alfabetización en colegios, institutos, universidades y para el profesorado. Pero también estamos presentes en otros ámbitos que van desde empresas, organizaciones, particulares, colectivos y asociaciones, que no solo están basados en la educación. No tienes que pasar únicamente por el proceso de la universidad para generar todo este conocimiento que te ayude a abordar procesos desinformativos, sino que pueden estar presentes en cualquier momento de tu vida”.

Otras soluciones

A parte de la regulación y la educación, al final del debate se dieron unas pinceladas en otras soluciones que podrían hacer frente a la desinformación.

En primer lugar, el Dr. Karatzas, dio la visión de cómo la tecnología también puede ser una aliada a la hora de detectar contenidos falsos y combatirlos: “es la misma tecnología la que genera y la que detecta. Para crear una buena imagen sintética, el mejor método es crear un buen detector. Si podemos engañar a este detector, significa que lo estamos haciendo bien. Y al revés: para construir un buen detector, lo mejor que podemos hacer es construir un buen sintetizador. Con lo cual, es la misma tecnología que avanza mano a mano. Usarla para combatir los “malos”, no es cuestión de la tecnología, sino de quién de los dos avanza más rápido”.

Por otra parte, el Dr. López explicó la ventana de oportunidad que el actual escenario de desinformación representa para los medios de comunicación tradicionales para volver a recuperar la credibilidad y prestigio de antaño: “Hemos visto ahora con la pandemia que los medios de comunicación se han puesto las pilas y, en este caso, yo creo que han sabido actuar bien y rápido. Nunca antes habían estado los doctores e investigadores tan presentes en los medios de comunicación y eso da un valor añadido a la credibilidad”. Alexandre también puntualizó la importancia de que los medios de comunicación recuperen el papel central en la información y para ello, la verificación de la información y contraste de fuentes es imprescindible.

Conclusiones

La difusión de información falsa ha sido una práctica habitual desde tiempos inmemoriales, pero con el avance de la tecnología, esta se extiende de forma inmediata y desmesurada, siendo, a la vez, más difícil de detectar, analizar y contrarrestar. Si bien es cierto que la tecnología de los deepfakes puede agravar esta situación, dando lugar a la creación de contenidos falsos casi imposibles de verificar, también puede proporcionar aplicaciones que resultan muy beneficiosas para la sociedad. Además, esta misma tecnología también se puede convertir en una gran aliada para detectar el contenido falso y una potente herramienta para facilitar y agilizar el trabajo de los verificadores de contenidos. Poner freno al avance de esta tecnología, por lo tanto, supondría sacrificar el impacto positivo y las ventajas que puede llevar a la sociedad. Sin embargo, es necesario ser conscientes de las consecuencias que puede conllevar para buscar soluciones que puedan anticiparse a sus usos negativos. En este sentido, la ética juega un papel muy relevante para que el avance tecnológico se produzca de forma positiva, justa y responsable.

Además, el foco del problema no hay que ponerlo solo en los deepfakes. La tecnología y, en gran medida, las redes sociales, también influyen en la diseminación o viralización del contenido falso, pero, a la vez, en la creación de burbujas de información que influyen en el tipo de contenidos que consumimos, dando lugar a un sesgo informativo y dificultando la oportunidad de contrastar la información. Para ello, es necesaria una mayor transparencia en el desarrollo de los algoritmos que hay detrás de las redes sociales y en el conocimiento que tenemos de ellos como usuarios.

En cuanto a la regulación en materia de desinformación, se debería tener en cuenta los cambios y necesidades que nos plantea el mundo digital para actualizar y adaptar las leyes a este nuevo y complejo escenario. Uno de los retos que afronta esta problemática es, sin duda, cómo hacer compatible la libertad de expresión e información con el derecho de la población a una información diversa y confiable.

La educación es otro de los grandes pilares para combatir la desinformación. La alfabetización mediática (y también la tecnológica) es clave para el desarrollo del pensamiento crítico en la ciudadanía, un aspecto fundamental para tener una mayor capacidad para discernir el contenido real y el falso. Esta educación debe ser a todos los niveles y respondiendo a los problemas y necesidades de la ciudadanía en su globalidad.

Finalmente, medios de comunicación y el periodismo de calidad pueden encontrar en este escenario una oportunidad para reivindicar su verdadero valor. La recuperación de las buenas prácticas periodísticas, transparencia, verificación y contraste de fuentes pueden ayudar a recuperar su credibilidad y papel central en la información.

Para más información sobre los siguientes debates de la segunda edición del ciclo “Inteligencia Artificial, ética y participación ciudadana”, puedes consultar el calendario de actividades en la página web del proyecto: http://iabcn.cvc.uab.es/