Fake news, deepfakes y desinformación en la era digital: una reflexión sobre hacia dónde vamos y qué soluciones tomar

Lidiar con las fake news y la desinformación es uno de los grandes retos de la sociedad del siglo XXI. Aunque los bulos y la información tergiversada llevan conviviendo con nosotros desde los orígenes de la humanidad, tal y cómo expone Yuval Harari en su libro “Sapiens, de animales a Dioses”,  el auge de Internet y las redes sociales han facilitado que actualmente este tipo de contenidos se multipliquen y tengan una difusión casi sin límites en periodos de tiempo muy cortos, llegando a poner en peligro el propio funcionamiento de la democracia, como se vio, por ejemplo, en el reciente asalto al Capitolio de EE.UU. Además, el avance de la Inteligencia Artificial, ha provocado que la manipulación o generación de vídeos, imágenes y audios falsos (conocidos como deepfakes) sea cada vez más realista, económica y fácil de realizar.

En un momento en el que cada vez es más difícil discernir entre lo real y lo imaginario, es importante reflexionar sobre el impacto que puede tener esta tecnología en la sociedad y sobre cómo debe abordarse este problema desde diferentes ámbitos. Con este objetivo en mente, el Centro de Visión por Computador (CVC), en colaboración con el Observatorio Social de la Fundación “la Caixa”, organizó el pasado 8 de abril en el Palau Macaya de Barcelona el debate “Fake News y Deep Fakes: sobreviviendo a una realidad inventada“, dentro de la segunda edición del ciclo “Inteligencia Artificial, ética y participación ciudadana”. Este debate fue moderado por Núria Martínez Segura, técnica de comunicación y marketing del CVC y contó con la participación de:

  • Dimosthenis Karatzas, investigador del CVC y profesor de la Universidad Autónoma de Barcelona (UAB).
  • Mònica Gasol, jefa del Área de Contenidos del Consejo Audiovisual de Cataluña (CAC)
  • Alexandre López Borrull, profesor de los estudios de información y comunicación de la Universitat Oberta de Catalunya (UOC).
  • Naiara Bellio, coordinadora de Maldita Tecnología
  • Alba Moreno, estudiante de Derecho de la UAB y representante del focus group.

A pesar que el debate se vio afectado por las restricciones a causa de la pandemia de la COVID-19, que redujo el aforo de la Sala de Actos del Palau Macaya, contó con más de 200 espectadores que lo siguieron en directo a través de las redes sociales del CVC.

Deepfakes: ¿son actualmente el principal problema de la desinformación?

Cuando hablamos de deepfakes generalmente nos referimos a vídeos y/o audios en los que la cara y/o la voz de una persona han sido manipuladas mediante el uso de Inteligencia Artificial de manera que ese contenido alterado parece auténtico. Esta tecnología puede usarse con fines desinformativos ya que, como mencionó Naiara Bellio, puede ayudar a cumplir los dos objetivos principales de la difusión de contenidos falso: influir en una batalla ideológica y manipular el discurso público.

Sin embargo, tal como remarcó el Dr. Dimosthenis Karatzas, no todos los usos de esta tecnología son negativos: “Las tecnologías no están creadas con el objetivo específico de crear fake news. De hecho, no existe una tecnología de fake news; existen tecnologías de generar contenidos. Estas tecnologías tienen varias aplicaciones, positivas y negativas. No existe una tecnología mala o buena, sino que depende del uso que se le dé”. Para ejemplificarlo, mencionó la tecnología Lip-Sync (sincronía de labios), que consiste en mover la boca de una cara para que parezca que diga otra cosa. “Esto, puesto en la boca de un actor para que en vez de hablar inglés hable español y que así tenga correspondencia con la traducción, es un uso bueno. Puesto en boca de un presidente lanzando un mensaje con fines bélicos, es un problema”, concluyó el subdirector del CVC.

En este sentido, Naiara explicó que, por parte de los verificadores de contenido, los deepfakes no son todavía un problema con el que suelan lidiar: “este tipo de tecnología todavía no es un formato que prolifere o se haya extendido hasta ese punto de gravedad con el que se califica. En nuestro medio recibimos vídeos con desinformación a diario, pero normalmente se trata de imágenes manipuladas o editadas, vídeos ralentizados o mal subtitulados, pero no este tipo de tecnología”. Sin embargo, afirmó que es ingenuo pensar que no puedan ser un problema más adelante, cuando esta tecnología sea más accesible y simple para el usuario medio.

Los ponentes coincidieron en que los deepfakes y las fake news son solo una parte muy pequeña de todos los formatos que se utilizan actualmente con fines desinformativos y que, por lo tanto, debe abrirse el foco y abordar el problema de una forma más global: “No toda la generación de contenido se hace de forma automática. La mayoría del contenido de hoy en día se genera por personas: tweets, blogs, likes, etc.”, explicó el Dr.  Karatzas.  La Sra. Bellio fue un paso más y añadió: “Nosotros pedimos que no se hable únicamente de fake news porque no existe como tal una noticia falsa. Pedimos que se llamen contenidos falsos o desinformación, porque al fin y al cabo lidiamos con diferentes formatos y grados de desinformación. Lo que más nos encontramos en Maldita a la hora de analizar no tiene nada que ver con lo que era antes, que solía tener el formato de una noticia de un medio tradicional. Actualmente vemos que los formatos en los que circula la desinformación son sujetos más simples: memes, imágenes y cadenas de texto que circulan por WhatsApp o montajes de titulares”.

El papel de las redes sociales en la desinformación

La tecnología tiene actualmente un papel muy relevante en cuanto a la velocidad, el alcance y la viralización de la desinformación. En este sentido, Mònica Gasol explicó en su intervención inicial el cambio de paradigma que han experimentado desde el Consell Audiovisual de Catalunya (CAC), como órgano regulador y supervisor del cumplimiento de la normativa audiovisual: “Hasta hace poco, los reguladores de contenidos supervisaban los contenidos emitidos por los operadores lineales (radio y televisión), porque allí estaban la mayoría de los contenidos audiovisuales. El avance tecnológico ha producido un cambio acelerado que se plasma en la existencia de nuevos medios, a los que se accede desde múltiples dispositivos y que crean cantidades ingentes de contenidos los cuales, a su vez, están producidos por un número indeterminado y muy elevado de agentes. Hemos pasado de un universo limitado en cuanto a agentes y a contenido a un universo prácticamente infinito”.

El Dr. Alexandre López señaló que debemos poner el foco en nuestra relación con las redes sociales: “Hemos pasado de un momento inicial en el que las redes sociales parecían lo mejor que existía a ver los lados oscuros que a veces presentan. No solo en términos de privacidad, sino en la capacidad que tienen de viralización y de altavoz respecto a las fake news”. Además, añadió que el problema no reside solo en las redes sociales sino en los usos que algunos medios de comunicación hacen de ellas, usando prácticas para ser los primeros en lanzar una noticia o el conocido clickbait (titulares engañosos o sensacionalistas), que han puesto en peligro la veracidad de sus contenidos y minado su credibilidad y prestigio.

Por su parte, Dimosthenis Karatzas remarcó: “La tecnología siempre se ha usado para ganar elecciones: Abraham Lincoln con el telegrama, Franklin D. Roosevelt con la radio, John F. Kennedy con la televisión y, recientemente, Donald Trump con Twitter. Pero antes, la tecnología siempre había sido una herramienta para que un mensaje llegara a más gente y ampliar el foco. Con las redes sociales pasa lo contrario: se usan para crear burbujas informativas. Tú decides a quién seguir y de quién recibir información. La Inteligencia Artificial está en el centro de esta creación de burbujas: si tienes un modelo que elige el contenido que te va a enseñar y ve como reaccionas, puede adecuar la manera en cómo selecciona contenido para alimentarte con lo que tú quieres escuchar. Este modelo es muy fácil tunearlo para que elija unos contenidos concretos para que tú pienses de una manera muy concreta”. En una de sus intervenciones finales, Dimosthenis insistió: “La creación de deepfakes quizás no es lo más importante ahora mismo. La tecnología de comunicación yo creo que es la importante: los sistemas de Inteligencia Artificial que crean estas burbujas de información y que deciden lo que vas a ver y lo no. Este es el punto que a nivel tecnológico debemos mirar y quizás regular”.

La compleja (y necesaria) tarea de legislar en materia de fake news

En su intervención principal, Alba Moreno, representante del focus group y estudiante de Derecho, reveló la falta de regulación que actualmente hay en este ámbito, siendo, sin duda, una de las principales preocupaciones de los integrantes del grupo de trabajo.  

Mònica Gasol explicó que, a nivel europeo, hay poca normativa en este ámbito, pero sí que se han definido unas líneas de actuación, que se podrían resumir en cuatro ejes: (1) intentar mejorar la transparencia de las plataformas en lo referente a los sistemas de difusión y funcionamiento de algoritmos, (2) detección de las fakes news y los focos de desinformación a través de la formación de redes verificadoras, (3) apoyo al periodismo de calidad y (4) empoderamiento de la ciudadanía mediante educación mediática. Además, la representante del CAC remarcó: “hay que tener en cuenta que cualquier actuación en este ámbito debe tener un respecto estricto a la libertad de expresión”.

Alba explicó que algunos países europeos, como es el caso de Alemania, han optado por dar a las propias plataformas la capacidad de autorregularse y que sean ellas mismas las que califiquen los contenidos y actúen de manera punitiva. Una solución con la que no acaba de coincidir: “Al final debe haber un grupo especializado de encontrar o supervisar estas diferentes informaciones, pero en contraposición ¿es posible controlar toda esta información? Es muy difícil. Y esto se mueve tan rápido que es imposible controlarlo”.

Naiara Bellio también opinó sobre el problema de que las redes sociales sean espacios autorregulados, sobre todo, por la falta de transparencia en algunos de sus procesos y en las métricas que usan para tomar una decisión como, por ejemplo, suspender la cuenta de una figura pública, como se ha visto recientemente con el caso de Donald Trump. “¿Quién está tomando esta decisión? ¿Qué parámetros utilizan para evaluarlo? Tendría que haber una discusión más amplia y con agentes que no sean únicamente de propia la empresa, como académicos, expertos en liberta de expresión, fact-checkers, etc. Nadie quiere que una empresa o que un gobierno diga qué es aceptable y qué no en las redes sociales y quién puede tener una cuenta y quién no. El debate debería ser más amplio e incluir otros actores que actualmente no se están teniendo en cuenta”, manifestó la coordinadora de Maldita Tecnología. En esta misma línea, la Sra. Gasol explicó: “La Comisión Europea creó un código de conducta al que se adhirieron algunas de las plataformas más masivas, y que fue seguido y evaluado por un grupo de expertos multidisciplinar. Uno de los elementos que consta en este código es justamente una mayor transparencia por parte de las plataformas en todo lo que concierne a su actuación, tanto a la constitución de estas burbujas informativas como a los criterios que utilizan para aplicar unas u otras sanciones en determinados contenidos”.

En cuanto a cómo debería ser la regulación en este ámbito, hubo diversidad de opiniones entre los ponentes. Mientras algunos de ellos, como Alba y Naiara, no eran partidarias de prohibir contenidos o cerrar cuentas, puesto que podrían poner en riesgo el derecho a la libertad de expresión, otros tenían una visión más “intervencionista”: “A mí sí que me gustaría que los poderes legislativos intervinieran y le dijeran, por ejemplo, a YouTube, que retire los vídeos de propagadores de las pseudociencias, porque todo el mundo no está preparado para entender que eso es falso. Se tiene que respetar la libertad de expresión, pero no la de desinformar. Y aquí es donde tenemos que ponernos de acuerdo, hasta dónde es esta frontera”, opinó el Dr. López. A lo que Mónica añadió: “La regulación es un debate que se debe tener en profundidad partiendo del respeto a la libertad de expresión, pero también hay otros derechos que confluyen y que se deben tener en cuenta. En vista a los resultados de la autorregulación, creo que la necesidad de regulación no hay que descartarla”.

A pesar de esta diversidad de opiniones, en lo que sí que coincidieron todos los ponentes fue en que, en cuanto a la desinformación, no existe una única solución y, ni mucho menos, debería recaer todo el peso en la regulación.

Educación, un antídoto para combatir la desinformación

La desinformación es algo que nos afecta a todos y, como explicó Alexandre Lopez, cada grupo de edad lo sobrelleva de forma diferente: “La gente joven es la que está más acostumbrada a cambiar contenidos o generarlos de nuevo, por lo que van aprendiendo a discernir los documentos o vídeos que reciben. La gente mayor, por su parte, es la que tiene más confianza en los medios de comunicación tradicionales, pero, a la vez, reciben información de una forma directa, como por WhatsApp, a la que le dan veracidad porque proviene de alguien cercano o de confianza. Al final, todos los colectivos tienen problemas y no es un problema de periferias; las clases medias tienen también dificultades para verificar y saber si un contenido es falso o no”. A lo que el Dr. Dimosthenis Karatzas añadió: “Los jóvenes tienen más acceso a las redes sociales pero los números dicen que los mayores diseminan unas 7 veces más la información que es falsa. Todas las edades tienen algo que decir o algo que hacer en esta cadena de desinformación y no estaría bien enfocarnos en unos u otros”.

En este sentido, los ponentes coincidieron que la educación y la alfabetización mediática y tecnológica son soluciones muy importantes, que deben llegar a todos los grupos de edad y centrarse en las necesidades de cada uno de ellos: “Hace falta educación continua, no solo en la universidad sino a lo largo de la vida y, especialmente, cuando las cosas van cambiando”, expresó el Dr. D. Karatzas y añadió: “También hace falta un cambio en el currículum. Los ingenieros necesitan formarse también en filosofía, historia, ciencias sociales, para poder tener el marco mental que les permitirá pensar sobre lo que están desarrollando. Y lo mismo, al contrario, en los grados de ciencias sociales es importante que se dé una pincelada sobre cómo avanza esta tecnología”. A lo que el Dr. A. López concordó y expresó la necesidad de encontrar el equilibrio entre especialización y multidisciplinariedad en los futuros profesionales. “Intentemos revertir esto y que una educación o profesión pueda ser transversal, desde los ingenieros que hablan de ética hasta los filósofos que hablan de números o cualquier ámbito. Sí que nos hemos de especializar, pero con un conocimiento base”, añadió Alba Moreno a este punto.

Hablando de actuaciones específicas, Mònica Gasol explicó que una de las líneas de actuación del CAC es la alfabetización mediática mediante el programa educativo EduCAC, en el que participa también el Departamento de Educación de la Generalitat de Catalunya, y que tiene como objetivo fomentar el espíritu crítico en la infancia y la juventud. Por su parte, Naiara Bellio, explicó el compromiso de Maldita.es con la alfabetización mediática de la ciudadanía, a todos niveles: “Desde Maldita tenemos muchos proyectos de educación y alfabetización en colegios, institutos, universidades y para el profesorado. Pero también estamos presentes en otros ámbitos que van desde empresas, organizaciones, particulares, colectivos y asociaciones, que no solo están basados en la educación. No tienes que pasar únicamente por el proceso de la universidad para generar todo este conocimiento que te ayude a abordar procesos desinformativos, sino que pueden estar presentes en cualquier momento de tu vida”.

Otras soluciones

A parte de la regulación y la educación, al final del debate se dieron unas pinceladas en otras soluciones que podrían hacer frente a la desinformación.

En primer lugar, el Dr. Karatzas, dio la visión de cómo la tecnología también puede ser una aliada a la hora de detectar contenidos falsos y combatirlos: “es la misma tecnología la que genera y la que detecta. Para crear una buena imagen sintética, el mejor método es crear un buen detector. Si podemos engañar a este detector, significa que lo estamos haciendo bien. Y al revés: para construir un buen detector, lo mejor que podemos hacer es construir un buen sintetizador. Con lo cual, es la misma tecnología que avanza mano a mano. Usarla para combatir los “malos”, no es cuestión de la tecnología, sino de quién de los dos avanza más rápido”.

Por otra parte, el Dr. López explicó la ventana de oportunidad que el actual escenario de desinformación representa para los medios de comunicación tradicionales para volver a recuperar la credibilidad y prestigio de antaño: “Hemos visto ahora con la pandemia que los medios de comunicación se han puesto las pilas y, en este caso, yo creo que han sabido actuar bien y rápido. Nunca antes habían estado los doctores e investigadores tan presentes en los medios de comunicación y eso da un valor añadido a la credibilidad”. Alexandre también puntualizó la importancia de que los medios de comunicación recuperen el papel central en la información y para ello, la verificación de la información y contraste de fuentes es imprescindible.

Conclusiones

La difusión de información falsa ha sido una práctica habitual desde tiempos inmemoriales, pero con el avance de la tecnología, esta se extiende de forma inmediata y desmesurada, siendo, a la vez, más difícil de detectar, analizar y contrarrestar. Si bien es cierto que la tecnología de los deepfakes puede agravar esta situación, dando lugar a la creación de contenidos falsos casi imposibles de verificar, también puede proporcionar aplicaciones que resultan muy beneficiosas para la sociedad. Además, esta misma tecnología también se puede convertir en una gran aliada para detectar el contenido falso y una potente herramienta para facilitar y agilizar el trabajo de los verificadores de contenidos. Poner freno al avance de esta tecnología, por lo tanto, supondría sacrificar el impacto positivo y las ventajas que puede llevar a la sociedad. Sin embargo, es necesario ser conscientes de las consecuencias que puede conllevar para buscar soluciones que puedan anticiparse a sus usos negativos. En este sentido, la ética juega un papel muy relevante para que el avance tecnológico se produzca de forma positiva, justa y responsable.

Además, el foco del problema no hay que ponerlo solo en los deepfakes. La tecnología y, en gran medida, las redes sociales, también influyen en la diseminación o viralización del contenido falso, pero, a la vez, en la creación de burbujas de información que influyen en el tipo de contenidos que consumimos, dando lugar a un sesgo informativo y dificultando la oportunidad de contrastar la información. Para ello, es necesaria una mayor transparencia en el desarrollo de los algoritmos que hay detrás de las redes sociales y en el conocimiento que tenemos de ellos como usuarios.

En cuanto a la regulación en materia de desinformación, se debería tener en cuenta los cambios y necesidades que nos plantea el mundo digital para actualizar y adaptar las leyes a este nuevo y complejo escenario. Uno de los retos que afronta esta problemática es, sin duda, cómo hacer compatible la libertad de expresión e información con el derecho de la población a una información diversa y confiable.

La educación es otro de los grandes pilares para combatir la desinformación. La alfabetización mediática (y también la tecnológica) es clave para el desarrollo del pensamiento crítico en la ciudadanía, un aspecto fundamental para tener una mayor capacidad para discernir el contenido real y el falso. Esta educación debe ser a todos los niveles y respondiendo a los problemas y necesidades de la ciudadanía en su globalidad.

Finalmente, medios de comunicación y el periodismo de calidad pueden encontrar en este escenario una oportunidad para reivindicar su verdadero valor. La recuperación de las buenas prácticas periodísticas, transparencia, verificación y contraste de fuentes pueden ayudar a recuperar su credibilidad y papel central en la información.

Para más información sobre los siguientes debates de la segunda edición del ciclo “Inteligencia Artificial, ética y participación ciudadana”, puedes consultar el calendario de actividades en la página web del proyecto: http://iabcn.cvc.uab.es/

AI4ALL Demoday: set projectes d’emprenedoria innovadors en Intel·ligència Artificial

La tercera edició del curs “AI4ALL: Intel·ligència Artificial aplicada a la Indústria” ha arribat a la seva fi i s’ha acomiadat amb la celebració d’un Demoday, en el qual s’han presentat un total de set projectes basats en tecnologies d’Intel·ligència Artificial (IA), capaços de solucionar necessitats reals del mercat.

AI4ALL és un curs promogut per la Universitat Autònoma de Barcelona (UAB) a través del seu Parc de Recerca, l’Escola d’Enginyeria UAB, el Centre de Visió per Computador i l’Institut d’Investigació en Intel·ligència Artificial del CSIC i amb el suport del Departament d’Empresa i Coneixement de la Generalitat de Catalunya, a través del Programa Catalunya Emprèn, que va néixer amb la finalitat de fomentar l’emprenedoria en el sector de la Intel·ligència Artificial. El curs d’enguany, ha dotat a un total de 21 alumnes d’eines tecnològiques i empresarials per dissenyar productes d’IA capaços de solucionar necessitats reals del mercat.

El curs ha finalitzat el 25 de març amb un Demoday virtual en el qual s’hi han presentat els projectes empresarials dissenyats pels propis alumnes. El director del CVC, el Dr. Josep Lladós, ha participat en aquesta sessió com a jurat, juntament amb Eduardo Ángel Urruticoechea, professor d’Enginyeria de la Universitat de Barcelona, Lissette Lemus, gestora de Transferència de Tecnologia a l’Institut d’Investigació en Intel·ligència Artificial del CSIC, i Pablo Perea, responsable d’inversions a GoHub Ventures, encarregats de valorar els projectes finals.

EchoSense, seleccionat com a millor projecte

El projecte guanyador ha estat EchoSense, una tecnologiasoftware basada en IA que fa servir ecos d’ona per explorar espais en 3D i que té aplicacions en el camp de la seguretat, la monitorització de signes vitals i patrons de comportament, i el control. Impulsat per Àlex Turpin, doctor en Física per la UAB; Jordi Mompart, professor de Física a la UAB, i Antonella Rodogno, fundador i CPO de ChineSpain, EchoSense es diferencia de les tecnologies existents perquè funciona amb hardwares ja existents i perquè respecta totalment la privacitat, ja que no fa servir càmeres de cap tipus.

SafeTracker, idea més innovadora

El projecte SafeTracker ha estat seleccionat com la idea més innovadora del programa. Es tracta d’una aplicació multidispositiu per millorar la seguretat dels usuaris de bicicleta que combina més d’un centenar de paràmetres i ofereix recomanacions en temps real. Darrere d’aquest projecte hi ha Ricard Kroebel, analista senior a la Creu Roja; Sergio Redondo, enginyer de Telecomunicacions; Vicenç Rosales, Marqueting Events Manager al FCBarcelona; Marc Subirà, IT Head Data & Sport Technology al FCB, i Manuel Velasco, desenvolupament corporatiu a RAED.

Els altres projectes que s’han desenvolupat són els següents:

  • FraudResearch: plataforma per detectar de manera automàtica el frau industrial, creada per Bernat Coma, Ivan Pérez i Albert Calvo, doctorands de la Universitat Politècnica de Barcelona, i Luis Delicado, desenvolupador de software.
  • Control ON: operador de robots científics per a un control predictiu extrem en sistemes hipercomplexos, com plantes de processament o xarxes intel·ligents, sense aturar els processos. Creat per  Luis A. Cedano i Pau Barceló, de l’empresa BCN_ATOMICS.
  • SORAIA: aplicació de salut predictiva d’IA per a pacients que necessiten ser monitoritzats. Creat per Eduardo Díez i Francisco Ochando, enginyers informàtics amb experiència en l’àmbit de la salut, integren l’equip.
  • AIJobs: aplicació per introduir currículums i ofertes de treball, i poder fer una preassignació automàtica. Creada pel professor d’Informàtica de la UAB Remo Suppi, de la professora de Dret processal de la UAB Cristina Riba, de la tècnica de promoció econòmica Raquel López i del consultor en tecnologies digitals Jordi Planes.
  • LetMeHelp: plataforma de suport a la gestió de situacions d’emergència i que, per mitjà de simulacions, permet millorar els protocols. L’aplicació es nodreix, entre d’altres, de les dades que aporta la ciutadania i pot donar recomanacions en temps real. Creada per tres enginyers i emprenedors: Esteve Aymerich, Joan Casellas i Daniel Benítez.

Més informació: https://www.uab.cat/web/detall-noticia/projectes-d-emprenedoria-innovadors-en-intel-ligencia-artificial-1345774818865.html?noticiaid=1345839724932

Vídeo del DemoDay: https://youtu.be/S1vkHAvyxeA

Pros y contras medioambientales del uso masivo de la Inteligencia Artificial

Hay un amplio consenso en torno a que el actual modelo económico no es sostenible, que es necesario llevar a cabo una “revolución” que nos permita mitigar las consecuencias del cambio climático y dejar un mundo más habitable a las futuras generaciones. Por ello, conceptos como economía circular, crecimiento sostenible, descarbonificación, etc., están cada vez más presentes en nuestro día a día. La importancia de cuidar el medioambiente se ve reflejada en su cada vez mayor peso en la agenda política, como lo demuestra su inclusión en varios de los 17 Objetivos de Desarrollo Sostenible y en la Agenda 2030 de la Organización de las Naciones Unidas.

Son objetivos ambiciosos, que no se van alcanzar solo con acciones de la ciudadanía, también será imprescindible modernizar el modelo industrial. En este proceso, la Inteligencia Artificial ha de ser un actor clave, cómo lo está demostrando con su papel en la implementación de la llamada “Industria 4.0”, una nueva manera de organizar los medios de producción que nos podría ayudar a conseguir un mundo más sostenible, justo y equitativo.

Para debatir sobre las amplias oportunidades y los retos que supone el incorporar la Inteligencia Artificial a los procesos industriales y su enfoque medioambiental, el Centro de Visión por Computador (CVC), en colaboración con la Fundación “la Caixa”, organizó el 23 de febrero en el Palau Macaya el debate “Industria inteligente y medioambiente: de cara a un futuro sostenible”, dentro de la segunda edición del ciclo “Inteligencia Artificial, ética y participación ciudadana”. Este debate, moderado por el Director de Comunicación del CVC, el Dr. Carlos Sierra, contó con la participación de:

  • Sr. Coen Antens, responsable de la Unidad de Soporte Tecnológico del CVC
  • Dra. Amparo Alonso Betanzos, presidenta de la Asociación Española de Inteligencia Artificial (AEPIA) e investigadora de la Universidade da Coruña
  • Sr. Antoni Manzano, cofundador y director científico de Aizon
  • Sra. Marta Subirà i Roca, secretaría de la Secretaría de Medio Ambiente y Sostenibilidad de la Generalitat de Catalunya
  • Sr. Ramón Espuga, cofundador y director de tecnología de Imotion Analytics (representante del grupo de trabajo)

A pesar que el debate se vio afectado por las restricciones causadas por la emergencia sanitaria provocada por la pandemia de la COVID-19, que redujo el aforo de la sala Macaya a la mitad, el acto contó con más de 340 espectadores que lo siguieron a través de las redes sociales (Facebook, Twitter y YouTube) del CVC.

Industria 4.0 y medioambiente: Una unión bien avenida… o no

La percepción intuitiva cuando hablamos de Industria 4.0, aquella en la cual la Inteligencia Artificial está plenamente implementada, es que será una industria más sostenible y por lo tanto más respetuosa con el medioambiente. Esto evidentemente puede ser así si se utiliza la Inteligencia Artificial de manera eficaz, pero hay que tener en cuenta que los algoritmos también consumen una gran cantidad de energía cuando los entrenamos y los implementamos.

Un ejemplo positivo de cómo la Industria 4.0 nos puede ayudar a cuidar el planeta lo proporcionó Coen Antens al hablar de la separación de residuos. “A día de hoy, la gestión de los residuos es muy tradicional, podríamos decir que aún están en la Industria 2.0 y es necesario avanzar. En analogía con los Smartphones, debemos ir hacía el smart recycling, y eso solo se consigue si vamos más allá de la tarea que tenemos como ciudadanos e invertimos en las plantas donde se produce la gestión de residuos, por ejemplo, los Ecoparks, donde la Inteligencia Artificial ya se está utilizando para optimizar procesos de reciclado. Nosotros, mediante la Visión por Computador, estamos consiguiendo ya tasas de separación correcta de los diferentes tipos del plástico del 80%, una cifra muy importante porque sin separación no hay reciclaje, y en casa no podemos separar entre distintos tipos de plásticos”.

La Sra. Marta Subirá i Roca compartió esta visión de que industria e Inteligencia Artificial han de ir de la mano para conectar con las necesidades de implementar un desarrollo económico sostenible. “El medioambiente se encuentra hoy en el centro de todas las políticas industriales. Esto, que parece de sentido común, es un fenómeno relativamente nuevo, antes la industria no iba conectada ni con el medioambiente ni con la tecnología. Sin embargo, ahora el Departamento de Medio Ambiente y el de Políticas Digitales trabajan conjuntamente para que esto no sea así. Por ello, desde la Generalitat de Catalunya nos hemos unido al Pacto Verde Europeo, que propone una economía más verde y digital, ya que en la lucha contra el cambio climático se necesita apostar por la digitalización, y promover una economía circular, basada en ejemplos como el de la gestión de residuos que se ha mencionado anteriormente”, declaró la Sra. Subirà i Roca.

La cruz la puso la Dra. Amparo Alonso. “Es un hecho que somos capaces de analizar enormes cantidades de datos provenientes de múltiples fuentes, pero eso exige el consumo de gran cantidad de recursos informáticos, por lo que es necesario realizar procesos de computación en nube. De esta manera alcanzamos elevadísimos niveles de precisión, pero a cambio de consumir mucha energía y emitir cantidades de CO2 muy elevadas a la atmosfera, por lo que debemos reflexionar muy seriamente. Sin ir más lejos, en 2016 los centros de procesamiento de datos más reconocidos realizaron el 3% del total del consumo eléctrico del mundo. Una cifra que en el caso del Reino Unido se disparó al 40%”, expuso la Dra. Alonso en su intervención inicial.

En esta misma línea profundizó el Sr. Ramón Espuga. “Hay que automatizar solo si con ello logramos una mayor productividad y eficacia, no hacerlo porque sí, sin un análisis previo de los costes y los beneficios, Para ello, hay que tener en cuenta el impacto de carbono que supone automatizar, y si este es mayor que antes de automatizar es que algo no estamos haciendo bien”.

De esta manera quedó demostrado, una vez más, que la intuición en ocasiones no da las respuestas correctas, que son necesarios análisis más sosegados, detallados y profundos.

¿Cómo hacer la industria 4.0 más sostenible?

Todos los participantes en el debate estuvieron de acuerdo en que para poder desarrollar una Industria 4.0 más sostenible, universidades, centros de investigación, empresas, administraciones públicas y ciudadanía tienen que ir de la mano.

Desde la universidad, Amparo resaltó que “la sostenibilidad es uno de los siete pilares de la estrategia de la Inteligencia Artificial en la UE, en la que España está adherida mediante el Programa Nacional de Algoritmos Verdes. Con este plan se persigue hacer áreas de la industria más sostenibles, cómo por ejemplo conseguir utilizar menos fertilizantes en la agricultura”. Pero hay más ejemplos, que pueden ir desde “disminuir sutilmente la precisión del algoritmo utilizando menos datos para entrenarlo, lo cual implica un envío menor de datos a la nube, con la consiguiente disminución de emisiones de CO2, hasta la implementación del mantenimiento predictivo, es decir, saber por ejemplo cuando un equipo va a fallar y prever con tiempo su reparación, pasando por crear bases de datos abiertas, las cuales manteniendo la privacidad, puedan permitir a las empresas y centros de investigación compartir sus datos para entrenar sus algoritmos sin la necesidad de que cada uno genere los suyoss propios”, continuó Amparo.

Por parte de los centros de investigación, Coen puso el ejemplo de la estrategia del CVC, claramente enfocada a conocer las necesidades de las empresas “para poder así generar el conocimiento necesario para ofrecer soluciones dentro del contexto específico de la empresa, teniendo en cuenta desde un principio la reducción del impacto en el entorno”.

Por parte de las Administraciones Públicas, estas por supuesto han de legislar, pero esto no es suficiente, “hay que conseguir también que la ciudadanía sea consciente de su contribución y se involucre en la implementación de las leyes y regulaciones, sino estas tendrán un impacto muy limitado. Un ejemplo claro, es la calidad del aire, todo el mundo quiere vivir en ciudades con mejor calidad, los centros de investigación alertan de los peligros sanitarios asociados a una mala calidad del aire, pero aun así es muy complicado cambiar las costumbres de las personas. Por eso, hay algunas iniciativas, como la que recientemente se ha empezado a implementar en Sant Cugat del Vallès, en la que se pretende suministrar sensores a la ciudadanía que va a pie o en bici para tener mejores datos sobre la calidad del aire en las distintas zonas de la ciudad. De esta forma se pueden explicar los resultados de una manera más personalizada, intentando así influir de una manera más eficaz para lograr cambios de hábitos en la ciudadanía”, razonó la Sra. Subirà i Roca. Este tipo de iniciativas buscan, por lo tanto, no solo informar, sino también formar ya que en los últimos años se ha producido un fenómeno aparentemente paradójico, que es que “la conciencia ambiental ha aumentado, pero la educación ambiental ha disminuido. Somos más activistas, pero con menos formación, y esto hay que intentar revertirlo”, afirmó Marta.

Por parte de la industria, el Sr. Toni Manzano expuso que la clave es “buscar los beneficios colaterales. Si un proceso controlado por la Inteligencia Artificial es eficiente, tiene que aportar aspectos positivos más allá del proceso automatizado en sí”. Un ejemplo muy claro en la industria química es la automatización de la limpieza de los biorreactores, un proceso crítico para estas industrias por, entre otros factores, los episodios de contaminación que pueden provocar. “Mediante la Inteligencia Artificial se ha conseguido que, durante la limpieza, se emitan menos compuestos volátiles contaminantes a la atmósfera. Esto tiene un beneficio para la empresa, ya que se evita pagar multas por provocar episodios de contaminación, pero también es un beneficio clarísimo para el entorno, que gana calidad ambiental”, continuó Toni.

Pero hay otros muchos ejemplos, tal y cómo se encargó de mostrar Ramón Espuga. “Sí, los beneficios colaterales son un muy buen medidor. Pensemos en el campo de la logística y la problemática de la última milla. La Inteligencia Artificial puede proporcionarnos soluciones que hagan posible la entrega eficaz de productos de China en nuestro barrio, pero, ¿es esto eficiente y óptimo? No, lo mejor para el planeta es, en muchos casos, comprar productos de proximidad en el comercio local, por lo tanto, en este caso no hay beneficio colateral en el uso de la Inteligencia Artificial, no es eficiente”.

El triángulo academia – industria – administraciones públicas

La relación universidades y/o centros de investigación con las empresas no es fluida, aún hay mucha desconfianza entre ellas y esto hace que, en el caso de la Industria 4.0, se avance más lento hacía su plena implementación. Solucionar esta problemática es tarea de todos los actores involucrados.

Coen Antens explicó que desde el CVC la estrategia es ir a buscar a las empresas, visitarlas, conocer sus problemáticas, intentar aportar soluciones e informarles de las ayudas públicas existentes para financiar las primeras fases de estos proyectos. “La realidad es que hacemos mucha labor de comercial, y esto no debería ser así, tendría que ser la administración publica la que, a través de sus canales, diese a conocer de una manera eficaz la existencia de este tipo de ayudas”, reivindico el Sr. Antens.

La Dra. Alonso, por su parte demandó la creación de ecosistemas, gestionados por las administraciones públicas, en donde coincidan empresas, universidades y centros de investigación. “Y cuando hablo de empresas no me refiero solamente a las grandes empresas tractoras, sino también a las PYMES y las start-ups. Esto es muy positivo para todas las partes y podría ayudar a que el ecosistema español fuese más atractivo y evitar la fuga de talento, porque talento hay, y mucho”, desarrolló Amparo.

Por parte de la industria, el Sr. Toni Manzano declinó opinar porque él se encuentra mucho más familiarizado con el ecosistema americano, cuyas particularidades difieren en mucho de las del sistema español, mientras que el Sr. Ramón Espuga apuntó una nueva debilidad a solventar. “Muchas veces los proyectos de innovación no se acaban llevando a la industria. Se hacen concursos, muchos de ellos organizados por las administraciones públicas, dónde se llevan ideas, prototipos, se premia a los mejores, pero ahí se quedan”.

Ante las múltiples alusiones a las administraciones públicas en este bloque del debate, la Sra, Subirà i Roca no escurrió el bulto. “Estoy totalmente de acuerdo en que las administraciones debemos y podemos hacer más. Primero, totalmente de acuerdo en que hay que retener el talento y, quizás, dejar de hablar de la creación y atracción del talento. Segundo, somos plenamente conscientes de la separación existente entre academia e industria y desde la Generalitat de Catalunya estamos esforzándonos en cerrar esa brecha. Para ello se han puesto en marcha programas conjuntos entre el Departamento de Empresa, el de Políticas Digitales y el de Medio Ambiente y Sostenibilidad cuyo objetivo es que empresas y academia encuentren líneas más coordinadas para poder acceder a ayudas a la innovación. Pero debimos seguir mejorando, esto no es suficiente”, reconoció Marta.

La revolución de la Industria 4.0 y su impacto en el empleo

Uno de los mayores temores de la ciudadanía cuando se habla de esta nueva revolución industrial es si esta va a suponer una destrucción irreversible de muchos puestos de trabajo y que va pasaría con estos futuros desempleados.

Todos los participantes en el debate estuvieron de acuerdo en que la Industria 4.0, cómo todas las revoluciones industriales que las precedieron, va a suponer un cambio muy importante en el mercado laboral porque muchas figuras laborales existentes van a perder su sentido y desaparecerán. Esto provocará que efectivamente una parte significativa de la población actual pueda perder su empleo, pero que también surgirá la demanda de nuevos perfiles para puestos muy especializados, que hará que el empleo se acabe recuperando. La pregunta es, ¿qué pasará durante el periodo de transición de un modelo a otro?

Para Ramón Espuga, “es necesario ofrecer por parte de la administración ayudas económicas a las personas que pierdan el empleo durante este proceso de transición e, incluso, plantearnos la implementación de una renta básica universal para los que no consigan adaptarse a este cambio”.

Según Toni Manzano, Inteligencia Artificial y empleo pueden ir de la mano, ya que “los modelos de Inteligencia Artificial necesitan personas que supervisen los procesos de aprendizaje de los algoritmos”.

Coen Antens manifestó su acuerdo con esta visión conjunta de empleo e Inteligencia Artificial. “Quizás debamos ir mentalizándonos que en el futuro en vez de un compañero de trabajo, tengamos un robot compañero, que necesitará cooperar con las personas para llevar a cabo su tarea de manera satisfactoria”.

Por su parte, Amparo Alonso, puso el foco en el hecho de que “hay un déficit de trabajadores especializados, no somos capaces de formar todos los profesionales que el mercado laboral está demandando con motivo de esta nueva revolución industrial. Además, en España se da el caso de que muchos de estos profesionales optan por irse a otros países ante las mejores condiciones que ofrecen”.

Por último, Marta Subirà i Roca, resaltó que “la Generalitat de Catalunya está trabajando para ofrecer formación y prestaciones sociales a todas las personas que pierdan su empleo para que puedan volver a la mayor brevedad posible al mercado laboral”.

Conclusiones

La Inteligencia Artificial está jugando y jugará un papel fundamental en la nueva revolución industrial. Pero el futuro no puede ser automatizar procesos industriales por automatizar, hay que estudiar de manera rigurosa si esta automatización supone un incremento de la eficiencia, o si abre la puerta a procesos que con la tecnología actual no es posible realizar.

“No es necesario tener modelos muy sofisticados de aprendizaje profundo para cualquier cosa, como por ejemplo para que una plataforma conozca con mejor detalle mis gustos y me recomiende la película A o la B, pero ¿queremos renunciar a mejores diagnósticos médicos por ser más sostenibles medioambientales?”, planteó la Dra. Amparo Alonso.

Para Toni Manzano “aún estamos lejos de saber cuál es el beneficio real de la Inteligencia Artificial frente al coste energético. Pero si sabemos que hay procesos vitales que, sin la automatización facilitada por la implementación masiva de la Inteligencia Artificial, no serán posibles. Un ejemplo muy actual es la fabricación y distribución de dos mil millones de dosis de vacunas contra la COVID-19, tal y cómo pretende la OMS. La fabricación y distribución de cada una de estas dosis tiene que estar supervisada desde el principio hasta su administración, y es evidente que solo con la tarea humana no se puede lograr”.

Ramón Espuga profundizó en el razonamiento de Toni. “El impacto global en términos energéticos de la Inteligencia Artificial es, efectivamente, muy complicado de medir. Pero en realidad lo que importa no es la energía que se consuma, si no de dónde proviene esta energía. Esta energía no tiene porque ser sucia, puede venir de fuentes renovables. En realidad, es lo mismo que pasa con el coche eléctrico, su implementación compensará si la energía eléctrica que con lo que se le alimenta es energía verde. Si usamos petróleo o carbón para producir la electricidad del coche eléctrico será lo mismo que si utilizamos un coche de gasolina”.

Para conocer este impacto global de la Inteligencia Artificial, la Sra. Marta Subirà i Roca lanzó una idea que suscito el interés de los demás participantes. “Antes de realizar una obra de una cierta envergadura es necesario realizar una evaluación de su impacto medioambiental, ¿deberíamos hacer una evaluación de impacto energético de los algoritmos? De esta manera, y en línea de los expuesto por Amparo, seguramente la evaluación de impacto de utilizar algoritmos de gran complejidad para realizar diagnósticos médicos precisos saldrá positiva, mientras que si lo hacemos para recomendar películas la evaluación sería negativa”.

Cómo se puede ver no hay una única respuesta única correcta a todas las cuestiones planteadas durante este debate, pero lo que si que quedó claro es que es necesario y posible optimizar los algoritmos para que funcionen correctamente con el menor número de datos posibles, tal y como concluyó Coen Antens. “Hace unos años entrenábamos las redes neuronales como si hubiera buffet libre, y nos servíamos del mayor número de datos disponibles, sin plantearnos si necesitábamos o no tal cantidad de datos. Si teníamos, por ejemplo, 100.000 datos utilizábamos 100.000 datos y los resultados eran buenísimos. Pero a veces solo teníamos 10.000 datos… y los resultados seguían siendo casi igual de buenos. La avidez que tenemos por los datos es una muestra más de la gula del ser humano. Y la gula nunca es el camino”.

The fitting rooms of the future

Researchers from the Computer Vision Center (CVC) and the University of Barcelona (UB) have developed, using deep learning, CLOTH3D, the first 3D big scale synthetic dataset for simulating clothes on top of different body shapes. This dataset is the first step to allow virtual enhanced try-ons experience.

Every day, more and more people buy their clothes using virtual platforms, and the current pandemic situation is even speeding up this trend. The advantages of this new way of shopping are evident, but it has some shortcomings too. One of the most important is that people cannot try on the clothes before receiving it at their place. To solve this problem, Artificial Intelligence and deep learning are playing a key role, since they are allowing modelling, recovery and generation of 3D model clothes. These models will mean a breakthrough for enhanced virtual try-ons experience, reducing designer’s and animator’s workload.

Nowadays, it exits models for simulating clothes on top of body shapes, but they are almost focused on 2D. This is because 3D models need an enormous amount of data, and available 3D cloth data are very scarce. There are three main strategies in order to produce data of 3D-dressed humans: 3D scans, 3D from conventional images, and synthetic generation. In the case of 3D scans, they are costly, and at most, they can produce a single mesh (human + garments). Alternatively, datasets that infer 3D geometry of clothes from conventional images are inaccurate and cannot properly model cloth dynamics. Finally, synthetic data is easy to generate and is ground truth error-free.

Researchers from the Human Pose Recovery and Behavior Analysis Group at the Computer Vision Center (CVC) – University of Barcelona (UB) chose this last path and developed CLOTH3D, the first big-scale synthetic dataset of 3D clothed human sequences, which was recently published in the Computer Vision – ECCV 2020 journal.  “As a lot of data is needed for developing 3D models, we decided to generate our own data. We have designed and released the biggest dataset of this kind with a strong outfit variability and rich cloth dynamics”, explained Hugo Bertiche (UB – CVC).

CLOTH3D contains a large variability on garment type, topology, shape, size, tightness and fabric. Clothes are simulated on top of thousands of different pose sequences and body shapes, generating realistic cloth dynamics. CLOTH3D is unique in terms of garment, shape, and pose variability, including more than 2 million 3D samples. “We developed a generation pipeline that creates a unique outfit for each sequence in terms of garment type, topology, shape, size, tightness and fabric. While other datasets contain just a few different garments, ours is the biggest data set in this field nowadays, with thousands of different garments. But we did not focus only on its development, we also published it in open access, so it is available for all types of audiences”, Dr. Sergio Escalera (CVC-UB) pointed out.

But cloth manufacturing industry is not the only one that could take advantage of this dataset, “the entertainment industry could also benefit, since computer-generated image movies and videogames could be even more realistic”, argue Dr. Meysam Madadi (CVC). But there is still plenty of work to do, “understanding 3D garments through deep learning is still in early stages. On one hand, while our dataset covers most day-to-day garment variability, outfit styles are only limited by imagination. Faster, automatic and smart garment design could lead to many very interesting applications. On the other hand, cloth dynamics are extremely complex and challenging, and they have been barely tackled in very naive ways. Further exploring is a must for this community. Finally, real fabrics are much more than what simulators usually provide, deep learning has yet to find the proper way to model extremely fine and chaotic details such as wrinkles and also objects of arbitrary geometry related to outfits, such as hats, glasses, gloves, shoes, trinkets and more”, concluded H. Bertiche.

Reference:

Bertiche H., Madadi M., Escalera S. (2020) CLOTH3D: Clothed 3D Humans. Computer Vision – ECCV 2020. Lecture Notes in Computer Science, vol 12540. Springer, Cham. DOI: 10.1007/978-3-030-58565-5_21

Algoritmos y sesgos: aún hay tiempo para minimizar sus consecuencias y construir una IA más justa y representativa

Uno de los grandes retos presentes y del futuro de la Inteligencia Artificial (IA) son los sesgos en los algoritmos. En los últimos años, han salido a la luz varios casos en los que la IA ha actuado de forma injusta o discriminatoria hacia ciertos colectivos. Ejemplos que han tenido un gran impacto mediático son los casos de Amazon, que en 2018 tuvo que desechar un sistema de reclutamiento por su sesgo contra las mujeres, de Google, que en 2015 tuvo que pedir disculpas después de que el algoritmo de Google Photos etiquetara como “gorilas” la foto de dos afroamericanos, y de Microsoft, que en 2016 se vio obligada a retirar el chatbot llamado “Tay” por elaborar mensajes racistas y xenófobos, por mencionar algunos de ellos.

La mediatización de estos casos produce dudas e incertidumbre en la opinión pública sobre el presente y futuro de la Inteligencia Artificial. Por este motivo y, para intentar dar respuesta a por qué se producen los sesgos, cómo podemos minimizar sus consecuencias, y cómo podemos garantizar un futuro con una Inteligencia Artificial más justa, inclusiva y equitativa, el Centro de Visión por Computador (CVC), en colaboración con la Fundación ”la Caixa”, organizó el pasado 26 de enero en el Palau Macaya el debate “Algoritmos sesgados: sin dejar a nadie atrás“, dentro de la segunda edición del ciclo “Inteligencia Artificial, ética y participación ciudadana”. El debate, moderado por el Director de Comunicación del CVC, el Dr. Carlos Sierra, contó con el siguiente panel de ponentes:

  • Dra. Maria Vanrell, investigadora del CVC y catedrática de la Universidad Autónoma de Barcelona.
  • Sr. Daniel Santanach, Coordinador de la estrategia de Inteligencia Artificial de Cataluña (Catalonia.AI) en el Departamento de Políticas Digitales y Administración Pública de la Generalitat de Catalunya.
  • Dra. Marta Ruiz Costa-Jussà, investigadora ERC de la Universidad Politécnica de Cataluña (UPC)
  • Sra. Mayte Hidalgo, responsable de estrategia y ética de la IA en everis
  • Sra. Judith Membrives, mentora e investigadora de Experiencia de Persona Usuaria e Innovación en el UXLab de Barcelona Activa.

A pesar que el debate se vio afectado por las restricciones a causa de la pandemia de la COVID-19, que redujo el aforo de la sala de actos del Palau Macaya a la mitad, el acto contó con más de 300 espectadores gracias a la emisión en directo a través de las redes sociales del CVC.

 

Algoritmos o datos: ¿Dónde radica el problema?

El sesgo en la Inteligencia Artificial es uno de los temas más discutidos dentro de este ámbito. Estos sesgos, tal y como explicó el coordinador de la estrategia Catalonia.AI, Daniel Santanach, aparecen porque detrás de cada tecnología siempre hay una o varias personas, con una serie de prejuicios y valores inherentes, que pueden transferirlos a las tecnologías: “Detrás de la IA hay personas que programan los algoritmos, que seleccionan los datos con los que se entrenan y que evalúan los resultados. Y, nos guste o no, las personas estamos sesgadas por un determinado contexto histórico o situación geográfica”.

Por lo tanto, la presencia de sesgos es un hecho innegable y el problema es que, muchas veces, pasan inadvertidos. Sin embargo, una de las preguntas que en el debate suscitó más diversidad de opiniones fue el verdadero origen de estos sesgos: ¿Son los algoritmos los que discriminan? ¿Son los datos los que ya vienen sesgados de serie? ¿O bien se trata de una combinación de ambas situaciones?

En este aspecto, la Dra. Maria Vanrell y Daniel Santanach coincidieron en sus respuestas: no podemos separar el algoritmo de los datos. “La amenaza está en todo: quién lo usa, cómo se programa, con qué datos se ha entrenado, etc. No se puede separar una cosa de la otra”, puntualizó la Dra. Vanrell, a lo que el Sr. Santanach añadió: “por este motivo es importante crear comités éticos para validar tanto los algoritmos que se desarrollan como los datos que se usan para entrenarlos”.

Sin embargo, la Dra. Marta R. Costa-Jussà consideró que el problema reside principalmente en los datos: “En mi comunidad científica, que es el tratamiento del lenguaje natural, atribuimos el sesgo a los datos. Los algoritmos, en el aprendizaje automático, estadísticamente cogen lo que es más probable. Por lo tanto, los algoritmos son neutros, pero pueden amplificar el sesgo de los datos”. Para entender esto, la Dra. Costa-Jussà lo ejemplifica con el caso de los sistemas de traducción automática, que tienden a traducir las palabras neutras del inglés “doctor”, siempre en masculino y, “nurse”, como enfermera en femenino ya que, en el histórico de los datos, aparecen más hombres como doctores y mujeres como enfermeras y el algoritmo tiende a generalizar.

En este sentido, Mayte Hidalgo, que no se decantó por uno u otro, quiso dar un especial énfasis en los datos y la perpetuación del sesgo: “Es importante hacer foco en qué nos puede estar diciendo un determinado grupo de datos acerca de un sesgo inherente y ver si es necesario tomar cautelas para no perpetuar el sesgo que pudieran estar expresando un comportamiento del pasado que quizás ahora deberíamos volver a evaluar”.  

Por último, Judith Membrives, secundó la opinión de que es el dato el que provoca que haya más sesgo y reivindicó la necesidad de una supervisión humana para reducirlos: “La tecnología, como materialización de algo producido por los humanos, no es neutral. Eso no significa que sea mala o buena, el problema está cuando sabemos que los algoritmos trabajan en base de una estadística concreta y no ponemos una supervisión humana a corregir estos sesgos, sino que es a partir de la realidad post-test cuando nos damos cuenta de sus consecuencias. Estas consecuencias, si nos damos cuenta pronto, las podemos arreglar, pero si las detectamos tarde pueden ser daños colaterales de la innovación tecnológica. A mí me preocupa que sabiendo que somos capaces de detectar ciertas cosas e imaginar las consecuencias, tengamos que aceptar estos daños colaterales”.

Educación y regulación, dos soluciones a corto y largo plazo

Como ya hemos visto en los anteriores ejes de este ciclo, la educación tecnológica es clave para que la sociedad pueda enfrentarse a los retos de futuro que conllevará la Inteligencia Artificial. Y como no podía ser menos, en este debate también fue una premisa en la que todos los ponentes coincidieron: “Los cambios tecnológicos avanzan más rápido de lo que los humanos podemos absorber. Conviene tener una fuerte educación en tecnología para evitar la desinformación o la poca familiarización, empezando por los niños, que son los que en un futuro diseñarán estos algoritmos”, afirmó la Dra. Costa-Jussà.

Por su parte, la responsable de estrategia y ética de la IA en everis, Mayte Hidalgo, comentó que también hay que educar sobre los datos, como elemento común de riqueza para la sociedad: “Las personas somos generadores de datos y, al estos ser una expresión de la humanidad, hay que aprovecharlos para el bien común. En este sentido, hay que educar para entender el uso de los datos, empezar a minimizar el concepto apocalíptico de la IA cada vez que sucede cualquier incidencia mediática y ejercer el rol educativo, didáctico y de difusión que empieza a hacer del dato un elemento común de riqueza para la sociedad”.

Estas opiniones fueron secundadas por la investigadora del User Experience Laboratory (UXLab) de Barcelona Activa, Judith Membrives, que introdujo también la necesidad de la regulación: “Es necesario alfabetizar y empoderar a los ciudadanos, pero esto no se consigue de un día para otro. Por lo tanto, debe acompañarse de regulaciones más estrictas, al menos en un momento inicial”.

Como representante de la Administración Pública, Daniel Santanach comentó algunas de las iniciativas que se están llevando a cabo por parte de la Generalitat de Catalunya para la alfabetización de la sociedad en materia de Inteligencia Artificial, y para la concienciación de las empresas, universidades y centros de innovación para la incorporación de comités éticos que participen en la revisión de los procesos de desarrollo de nuevas tecnologías. Además, afirmó que desde la Generalitat se está trabajando en una Carta de Derechos Digitales, actualmente abierta a la participación ciudadana, que servirá para promover un marco legislativo y democrático para garantizar los derechos humanos y las libertades fundamentales de los ciudadanos en la era digital.

Transparencia, confianza y cooperación: tres claves para el progreso

Al inicio del debate, Judith Membrives, comentó que las principales preocupaciones que surgieron por parte de la ciudadanía en el grupo de trabajo fueron la falta de regulación, el miedo a quién tiene el control de nuestros datos y sentimiento de desprotección en torno a la Inteligencia Artificial.

Para dar respuesta a estas preocupaciones generalizadas, en el debate se habló de la importancia de la transparencia en el proceso de innovación y desarrollo de las tecnologías. En este sentido, la Dra. Marta Costa-Jussà puntualizó la necesidad de que las bases de datos contengan más información y detalles que ayuden a los investigadores a saber con qué clase de datos están trabajando y cómo serán los sistemas si los entrenan utilizando los mismos.

Por otra parte, los ponentes también reflexionaron sobre la importancia de la confianza en la tecnología por parte de la ciudadanía y coincidieron de forma unánime en que es imprescindible para el buen desarrollo de la tecnología en un futuro: “Al final, por mucha transparencia que le demos, siempre será necesaria la confianza hacia la Inteligencia Artificial. Con las vacunas, por ejemplo, tenemos confianza. Pero para generar confianza es necesario educar y explicar la Inteligencia Artificial a todos los niveles, desde los niños hasta la sociedad en general”, señaló Daniel Santanach.

Finalmente, también se habló de la cooperación entre empresas y centros de investigación o sector público: “Si somos capaces de abrir y compartir, el progreso se dispara. A las propias empresas les interesa compartir porque es mucho más el beneficio dando que escondiendo”, afirmó la Dra. Maria Vanrell, a lo que la Dra. Marta Costa-Jussà añadió: “Se tiene que cerrar el círculo: la sociedad invierte unos impuestos en la academia, la academia pasa sus resultados a la industria y la industria hace la producción que se revierte en la sociedad. Actualmente la cooperación entre industria y academia es muy grande, los modelos que se entrenan están en abierto y se comparten. La colaboración es muy activa y gracias a eso el progreso es enorme”.

Conclusiones

La neutralidad de la tecnología sigue siendo un tema que suscita confrontación de opiniones y, seguramente no hay una respuesta correcta, si no que depende del concepto de neutralidad que tenga cada uno. Neutra o no, lo más importante el uso que damos a esa tecnología y las consecuencias que pueda generar. Por este motivo, es importante que academia, industria, administración pública y sociedad civil se unan para para garantizar la construcción de un futuro en el que la tecnología se utilice para el beneficio común.

Los sesgos en los algoritmos, al igual que los sesgos en los seres humanos, existen y probablemente van a existir siempre. Forman parte de la inteligencia humana y, tal como mencionó Daniel Santanach haciendo referencia al libro de Sápiens de Yuval Noah Harari “son los que nos han llevado a los seres humanos hasta dónde hemos llegado hoy en día como especie”. Sin embargo, esto no es una excusa para no tratar de minimizar las consecuencias negativas que puedan conllevar. La construcción de comités éticos, los equipos multidisciplinares y diversos, los mecanismos supervisión y la transparencia tanto en los datos como en los procesos de desarrollo de los algoritmos, son algunas de las necesidades que se han comentado en este debate.

Además, estos algoritmos presentan una fortaleza que nosotros, como seres humanos, no tenemos, tal como explicó la Dra. Marta R. Costa-Jussà: “Así como a nosotros no se nos pueden borrar los sesgos, que ya nos vienen inculcados casi desde nuestro nacimiento, a un algoritmo lo podemos resetear, reentrenar y neutralizar. Aquí se nos presenta una oportunidad y es que los algoritmos pueden llegar a ser más equitativos que nosotros mismos, si así los entrenamos”.

Finalmente, todo esto no tiene sentido sin la confianza de la ciudadanía en la Inteligencia Artificial, así como en otros ámbitos de la ciencia y la tecnología. Para ello, es necesario apostar por una alfabetización tecnológica a todos los niveles, un marco normativo que nos proteja y garantice nuestros derechos humanos y un desarrollo de la IA desde un punto de vista ético e integrador.

Para más información sobre los siguientes debates de la segunda edición del ciclo “Inteligencia Artificial, ética y participación ciudadana”, puedes consultar el calendario de actividades en la página web del proyecto: http://iabcn.cvc.uab.es/

¿Videovigilar o videoproteger? El lenguaje importa, también en la Inteligencia Artificial

La Inteligencia Artificial (IA) está cada día más presente en nuestras vidas, y todo apunta a que esta tendencia seguirá creciendo en los próximos años. Algunas de sus aplicaciones son vistas como algo positivo por la mayor parte de la sociedad, cómo puede ser la utilización de la Visión por Computador como herramienta de soporte a los profesionales médicos a la hora de diagnosticar enfermedades como el cáncer de pulmón, de mama o la Covid-19, pero hay otras sobre las cuales la mayoría de la ciudadanía tiene una visión negativa, como es el caso de la utilización de la IA en tareas de videovigilancia. Casi nadie quiere vivir en ciudades en donde podamos ser controlados en cada momento y lugar por cámaras de seguridad. En cambio, si hablamos de videoproteger la percepción varía de manera significativa, lo que denota que es un campo en donde la ética, la información y la educación han de jugar un papel muy destacado.

Por ello, y para intentar dar respuesta a las inquietudes que surgen cuando se habla de utilizar la IA para hacer ciudades más seguras, el Centro de Visión por Computador (CVC), en colaboración con la Fundació “la Caixa”, organizó el pasado 15 de diciembre en el Palau Macaya el debate “Videovigilancia y seguridad: la ciudadanía ante sus derechos digitales”, dentro de la segunda edición del ciclo “Inteligencia Artificial, ética y participación ciudadana”. Este debate, moderado por el Director de Comunicación del CVC, el Dr. Carlos Sierra, contó con la participación de:

  • Sergio Escalera, Investigador ICREA, CVC y Universidad de Barcelona
  • Carina Lopes, Directora del Laboratorio de Ideas de la Sociedad del Futuro Digital en el Mobile World Capital Barcelona
  • Txetxu Ausín, Director del Grupo de Ética Aplicada del Instituto de Filosofía del Consejo Superior de Investigaciones Científicas (Madrid)
  • Joan Figueras, Jefe de la Unidad Central de Fotografía y Audiovisual en el Área Central de Identificación de la división de la Policía Científica de los Mossos d’Esquadra
  • Lina M. González, Coordinadora de proyectos en derechos humanos, empresas y seguridad humana y compra pública en el NOVACT

A pesar que el debate se vio afectado por las restricciones a causa de la pandemia de la Covid-19, que redujo el aforo de la sala Macaya a la mitad, el acto contó con más de 330 espectadores que lo siguieron en directo a través de las redes sociales del CVC.

La necesidad de regular y formar a la ciudadanía

La videovigilancia, como muchos otros campos en donde la IA está teniendo cada vez un papel más destacado, ha avanzado mucho en los últimos 10 años. Ejemplos de ello son, tal y como explicó el Dr. Sergio Escalera “el altísimo nivel de reconocimiento de patrones de comportamiento anómalo, o las mejoras muy significativas alcanzadas en el ámbito del reconocimiento facial”. Sin embargo, tal y cómo el Dr. Escalera reconoció “la tecnología se ha desarrollado mucho más rápidamente que otros avances que deberían ir en paralelo, tales como la ética y la legislación para definir en qué ámbitos es admisible su implementación y cómo ha de hacerse, cómo informar y educar a la ciudadanía de manera correcta para que puedan tener opiniones bien fundamentadas.

Profundizando en la línea del reconocimiento facial, el campo dónde sin duda alguna más reticencias hay a la hora de utilizar la IA, la Dra. Carina Lopes reconoció que “las grandes empresas como Google, Microsoft, Apple han parado de comercializar tecnologías de reconocimiento facial hasta que se solucionen los problemas tecnológicos asociados a su utilización tales como los falsos positivos en gente de color, pero hay pequeñas empresas que continúan trabajando en ello”. E incide en unos de los puntos planteados por Sergio Escalera, “hay que formar a la sociedad, pero no es tarea fácil. Londres por ejemplo se encuentra plagada de cámaras de videovigilacia, unas de propiedad públicas y otras de propiedad privada”. Y plantea varios de los principales retos a la hora de informar a la ciudadanía, “¿cómo puede una persona saber de quién es cada una de las cámaras que le graba? ¿Cómo puede saber cómo van a analizar sus imágenes? ¿Quién y cómo le tiene que proporcionar esa información?”.

Ante estas preguntas, el Sr. Joan Figueras, quiso mandar un mensaje de tranquilidad. “Primero, al menos en cuanto a los Mossos d’Esquadra se refiere, tenemos una regulación muy estricta sobre cómo y en qué casos podemos utilizar estas imágenes. Segundo, no es lo mismo reconocer que identificar. Reconocer es saber si a una persona la hemos visto antes o no, por ejemplo en un supermercado o en un cajero, pero no sabemos su identidad. Esta primera parte sí que puede ser realizada por la IA, pero para identificar hace falta una persona humana”. Sin embargo, coincidió en la necesidad de crear una regulación lo antes posible, “qué no se pueda identificar ahora con IA no quiere decir que no se pueda hacer en el futuro, por lo que debemos ir pensando como legislar esta opción”.

Por su parte, el Dr. Txetxu Ausín introdujo una perspectiva nueva, la de la videovigilancia líquida. “La mayoría somos reacios a la vigilancia estatal, pero se da la paradoja de que a la vez colaboramos activamente con la videovigilancia a través de las redes sociales, determinadas aplicaciones de nuestros teléfonos móviles, etc. porque no somos conscientes de esta forma de vigilancia”. Por ello, él también aboga por la necesidad de que se forme a la ciudanía para que pueda participar en estos debates, “la tecnología ha de servir para protegernos. Es por ello que deberíamos hablar de videoprotección en vez de videovigilancia  y la única manera de que esto se cumpla es involucrando a la sociedad en su desarrollo e implementación, así como incluir a la ética desde el mismo diseño de la tecnología”.

Un argumento que compartió la Dra. Lina González, la cual ante la imposibilidad de formar a la ciudadanía en un corto plazo de tiempo propuso ir un paso más allá y pidió “una moratoria en la aplicación de la IA en el ámbito del reconocimiento facial hasta que se haya legislado la manera en que esta no suponga una pérdida de privacidad de la ciudadanía”.

La opción de la moratoria

La propuesta de la moratoria en el uso de la IA en tareas de reconocimiento no suscito un consenso entre los participantes en el debate.

La Dra. Lopes abogó por una moratoria solo en el caso del reconocimiento facial en espacios públicos y, en el caso de los espacios privados que esté bien claro que son privados ya que, “a veces, si estás en espacios abiertos, es imposible saber si el espacio es público o privado. En el caso de Londres, en ocasiones pasas de espacios públicos a privados sin darte cuenta”.

En el caso del Dr. Escalera, pedir una moratoria es simplificar demasiado el escenario, incluso en el caso del reconocimiento facial. “El reconocimiento facial puede ser incluso, en algunos casos, una garantía de privacidad ya que, por ejemplo, puede utilizarse para asegurar que unos datos en concreto son tuyos. Por lo tanto, una moratoria en casos de monitorización masiva podría tener sentido, pero en casos de verificación en ambientes más controlados y seguros no tiene sentido”.

Por su parte, el Sr. Joan Figueras, tampoco es partidario de la moratoria, al menos en su área, ya que la realidad es que el reconocimiento facial en el ámbito policial de Cataluña no se realiza ni se espera que se realice a corto plazo por medios de IA. “Realmente las cámaras que hay en la actualidad por las calles son analógicas o digitales de primera generación. Esto hace que sea muy complicado identificar a alguien a través de imágenes”, explicó Joan Figueras.

Ante estas objeciones, Lina González quiso puntualizar de nuevo que la propuesta de la moratoria se refería solo al reconocimiento facial, ya que la videovigilancia puede ser de gran utilidad en, por ejemplo, en zonas naturales protegidas de difícil acceso.

La protección de datos en la Unión Europa y fuera de ella: la trazabilidad de los algoritmos

El tema que más suspicacias suscitó al hablar de la videovigilancia fue la protección de datos.

Para Sergio Escalera “en Europa somos unos privilegiados en cuanto a la protección de datos. El Reglamento General de Protección de Datos Europeo nos garantiza que nosotros somos los propietarios de nuestros datos. No es legal que usen nuestros datos sin nuestro permiso. E incluso si damos nuestro permiso, podemos revocarlo en cualquier momento”.

Esta afirmación fue compartida por el resto de los ponentes pero la encontraron insuficiente.

Primero, según el Dr. Ausín, “existe una enorme asimetría entre la ciudadanía y las empresas. Por ello es muy difícil asegurar que se cumplan las garantías ya que el ciudadano en ocasiones no sabe quién tiene sus datos”. Una visión que coincide con lo planteado anteriormente por la Dra. Lopes cuando mencionó lo difícil que era para el ciudadano conocer al propietario de todas las cámaras que le pueden grabar a lo largo del día.

Además, para Carina Lopes, que en Europa seamos unos privilegiados no impide que “podamos desarrollar tecnologías que no se usen en Europa, pero sí en otros países con una regulación más laxa”. En esta línea también se expresó la Dra. González al puntualizar que “es cierto que en Europa hay mucha regulación, pero esto es visto por muchas empresas como una desventaja y se van a países más desregulados”. Un tema que, según Sergio Escalera hay que abordar, ya que “es verdad que la tecnología se puede vender a terceros países”. Pero, continuó el Dr. Escalera, “no debemos dar por supuesto que el hecho de que las empresas quieran ganar dinero suponga que no tengan en cuenta los aspectos éticos. Hay bastantes casos de denuncias precipitadas que luego se demostraron sin fundamento”.

Un ejemplo de esta mala praxis lo dio Carina Lopes al explicar lo que está ocurriendo en China, en dónde para poder reconocer a personas con mascarilla hay empresas que están comprando enormes cantidades de imágenes provenientes de las redes sociales a medio céntimo de Euro para entrenar a sus algoritmos, algo que está totalmente prohibido en Europa.

Para evitar que esto suceda los cinco participantes en el debate señalaron que la clave es la trazabilidad del algoritmo, que se sepa dónde y cómo se está utilizando y, en caso de incumplir las leyes Europeas tomar las medidas oportunas.

La privacidad y las Redes Sociales

Un punto débil a la hora de garantizar la privacidad de nuestras imágenes son las redes sociales, ya que en ellas es muy fácil perder el control de las mismas, un punto ya mencionado anteriormente por el Dr. Ausín. Para Txetxu Ausín, “la ciudadanía tiene cierta parte de responsabilidad, ya que debemos ser conscientes de lo que hacemos con nuestra imagen en las redes sociales y en la captación de datos, pero nos encontramos en una relación muy asimétrica con el poder, por lo que es hipócrita responsabilizar al ciudadano únicamente”.

Por su parte, para Sergio Escalera la clave es, de nuevo, la formación. “Hemos de formar a la ciudadanía sobre la gran cantidad de datos que cedemos a las redes sociales. Un ejemplo son las Apps con las que podemos modificar nuestra cara para envejecerla o embellecerla, ya que son herramientas muy potentes para entrenar algoritmos de reconocimiento facial a las que estamos dando permiso para que puedan utilizar nuestros datos. Pero aún en el caso de que no subamos ninguna foto a las redes sociales ni utilicemos aplicaciones de este tipo, sigue siendo muy difícil controlar la privacidad ya que cualquiera puede colgar una foto en la que aparezcamos”.

Por su parte, los Mossos d’Esquadra, realizan continuos cursos y charlas para alertar de esta problemática y promover políticas de uso responsable de imágenes en las redes sociales, tal y cómo comentó Joan Figueras.

Conclusiones

En este debate, a pesar de los diferentes puntos de vista de los ponentes, se alcanzaron una serie de consensos:

Primero, la IA, como cualquier tecnología no es buena ni mala, todo depende del uso que le demos a sus múltiples y potentes aplicaciones. Esta conclusión mayoritaria no fue unánime porque Txetxu Ausín discrepó ya que, en su opinión “esta tecnología puede crear ciertas formas de autoridad y de poder, así cómo transformar los hábitos, las costumbres y las relaciones. Si nos sentimos observados cambiamos nuestro comportamiento”.

Segundo, la IA nunca puede ir sola, debe ser supervisada por expertos humanos en todas sus aplicaciones. Para el Sr. Figueras “la IA está para ayudarnos, pero no para decidir”. Además, en opinión del Dr. Escalera “hemos de admitir que por muy bien que diseñemos el algoritmo siempre habrá errores, y que lo que no pueda hacer un experto muy especializado probablemente tampoco sea capaz de hacerlo la IA”. Un ejemplo lo puso Joan Figueras al referirse a un partido de futbol retransmitido sin supervisión humana. “En este partido se dio la casualidad de que uno de los linieres tenía la cabeza completamente afeitada, y el algoritmo en muchas ocasiones confundió su cabeza con la pelota, por lo que una parte importante de la retransmisión consistió en la cabeza de este juez de línea” explicó el Sr. Figueras provocando la hilaridad de los asistentes.

Tercero, hay que regular, formar e informar a la ciudadanía. Además, debe haber un interés especial por desarrollar tecnologías transparentes, trazables y proporcionadas y que sean inclusivas y respetuosas con la protección de la intimidad, diversas y con equilibrio de género.

Por último, se habló también de la necesidad de evitar los sesgos en los algoritmos de IA, un punto sobre el que el moderador el Dr. Carlos Sierra evitó que se profundizará por ser este la temática del debate del 26 de enero “Algoritmos sesgados: sin dejar a nadie atrás”.

Toda la información sobre este y los siguientes debates de la segunda edición del ciclo “Inteligencia Artificial, ética y participación ciudadana”, se puede consultar en la página web del proyecto: http://iabcn.cvc.uab.es/

Impacto, ética y regulación: tres cuestiones a considerar sobre el futuro que queremos en torno a la Inteligencia Artificial.

Reflexiones del debate “Smart Cities y ciudadanía digital”, acto inaugural del ciclo de diálogos “Inteligencia Artificial, ética y participación ciudadana”

La Inteligencia Artificial (IA) se ha integrado en nuestro día a día, a veces, incluso, sin darnos cuenta. Desbloquear el teléfono a partir de nuestra cara, utilizar el sistema de recomendaciones de las plataformas digitales de vídeo o música o consultar el estado del tráfico a tiempo real, son algunos de los usos más habituales que hacemos de esta tecnología. Pero; ¿Es la ciudadanía realmente consciente de todo su potencial? ¿Conocemos todos sus riesgos? ¿Cómo podemos asegurar que estas tecnologías respeten los derechos de todos? ¿Debemos exigir una regulación para garantizar que sean más justas y seguras?

Con el objetivo de reflexionar sobre este tipo de cuestiones nació en 2019 el proyecto “Inteligencia Artificial, ética y participación ciudadana”, un ciclo de diálogos ciudadanos organizado por el Centro de Visión por Computador (CVC) y financiado por la Fundación La Caixa dentro de la quinta convocatoria de proyectos de reflexión del Palau Macaya. El pasado miércoles 11 de noviembre se dio el pistoletazo de salida a la segunda edición del ciclo, con el debate inaugural “Smart Cities y Ciudadanía Digital”, moderado por la periodista especializada en tecnologías de la información y la comunicación, Karma Peiró. En el debate, expertos de distintos sectores – academia, administración pública y empresa – expusieron sus perspectivas sobre el estado actual de la Inteligencia Artificial y sobre las cuestiones éticas y necesidades legislativas que giran a su alrededor. El panel estuvo integrado por los siguientes ponentes:

  • Josep Lladós, Director del Centro de Visión por Computador (CVC) y profesor de la Universidad Autónoma de Barcelona
  • Laura Leal-Taixé, Investigadora y profesora en la Universidad Técnica de Múnich
  • Daniel Marco, Director General de Innovación y Economía Digital de la Generalitat de Catalunya
  • Carolina Pinart, Directora Global de Nuevas Tecnologías en Nestlé
  • Albert Sabater, Director del Observatorio de Ética en Inteligencia Artificial de Catalunya

A pesar que el debate se vio afectado por las restricciones a causa de la pandemia de la COVID-19, que imposibilitaron la asistencia de público presencial en la sala de actos del Palau Macaya, el acto contó con más de 300 espectadores que lo siguieron en directo a través de las redes sociales del CVC.

La Inteligencia Artificial, una realidad muy presente en nuestras vidas

El primer bloque del debate arrancó con la reflexión de Karma Peiró sobre cómo la Inteligencia Artificial se encuentra ya muy presente en nuestras vidas, pasando muchas veces desapercibida. No obstante, la periodista quiso profundizar en cómo de implementada está en nuestra sociedad y si realmente está tan avanzada como pensamos.

Según el Dr. Josep Lladós, la IA no ha aparecido de la noche a la mañana, ya que lleva más de 60 años desarrollándose. Sin embargo, señaló que actualmente nos encontramos en una “primavera de la IA”, un momento clave y detonador para su avance. “Han confluido diferentes factores: estamos en la 4ª revolución industrial, el avance computacional es cada vez más potentes y, a nivel científico, han aparecido nuevos paradigmas, como el Deep Learning, que nos han permitido resolver retos que hace 5 años parecían imposibles”, afirmó el director del CVC.

Este acelerado avance ha generado grandes retos de futuro, retos que ya se están empezando a contemplar desde la Administración Pública. “Desde la Generalitat de Catalunya, estamos empezando a avanzar de forma importante en la incorporación de servicios digitales. Con la pandemia, esta situación se ha acelerado en muchos ámbitos”, contó el Director General de Innovación y Economía Digital de la Generalitat de Catalunya, el Sr. Daniel Marco, profundizando en algunos ejemplos, como es el caso de los sistemas de reconocimiento facial para facilitar el acceso en instalaciones, los sistemas de control de presencia y acumulación de personas en espacios, la aplicación Confinapp, que dispone de un chatbot que interactúa con la ciudadanía con temas relacionados con la COVID-19, o el recién creado Observatorio Epidemiológico de Catalunya, que utiliza técnicas de Big Data e Inteligencia Artificial para, entre otras cosas, predecir en qué sitios se pueden producir rebrotes.  

La incorporación de nuevas tecnologías de Inteligencia Artificial en el sector privado también es cada vez más común, sobre todo en las grandes empresas y multinacionales. Tal como afirmó la Dra. Carolina Pinart, Directora de Nuevas Tecnologías en Nestlé: “Las grandes empresas incorporan la IA con tres finalidades: aumentar ingresos, reducir costes y reducir riesgos”. Estas empresas también han experimentado recientemente un incremento en el uso de las nuevas tecnologías para resolver problemas derivados de la pandemia. En el caso de Nestlé, la Dra. Pinart, destacó la incorporación de chatbots en la tienda online, para interactuar de forma más personalizada con los clientes y hacer frente al cierre de las tiendas físicas o, por otro lado, el uso de tecnologías de visión por computador y realidad aumentada para el soporte en la reparación de máquinas especializadas en sus fábricas.

Como podemos ver, la IA ya está implementada en muchos ámbitos, pero ¿está en todos ellos igual de avanzada? Según el Dr. Albert Sabater, director del Observatorio de Ética en Inteligencia Artificial de Catalunya esto no es así y puntualizó que, en algunos ámbitos, puede llegar a ser comprometida: “La IA no está tan avanzada cuando hablamos de modelos de predicción de naturaleza social, como podría ser, por ejemplo, predecir si una persona que ha cometido una infracción es probable que pueda cometer otra. La gran mayoría de estos modelos de predicción son muy frágiles y debemos ser cautos con ellos”. Además, según el Dr. Sabater, el avance de la tecnología no siempre va de la mano del avance de los procesos de validación externa de la misma: “Sabemos cada vez más sobre cómo diseñar mecanismos que nos permitan ser más eficientes, pero sabemos mucho menos sobre cómo validar estos procesos de una forma externa y sobre cómo podemos ser más transparentes. Debemos involucrar a todos los actores – industria, sociedad civil, administración y universidad – y transmitir los unos a los otros y, sobre todo, a la sociedad, que la IA está aquí para quedarse, pero, sobre todo, para hacer lo que nosotros le digamos. La IA es un actor más y está aquí para ayudarnos. Lo que debemos ser conscientes es hasta qué punto nosotros somos capaces de gobernar esta IA”.

Por último, la Dra. Laura Leal-Taixé, nos dio su visión sobre cómo está el ecosistema de la Inteligencia Artificial en otros países, haciendo especial énfasis en Alemania, país en el que lleva más de 8 años viviendo y trabajando como investigadora y profesora, actualmente en la Universidad de Múnich: “en Alemania se está apostando mucho por la IA, sobre todo por parte del sector privado. Hay mucho interés por parte de las empresas, pero no hay suficiente personal especializado. Estas nos piden muchas colaboraciones de investigación porque quieren saber qué es lo que se puede y lo qué no se puede hacer con esta tecnología. Esto pasa principalmente con las empresas medias y pequeñas en Alemania, pero luego encontramos a las grandes empresas, que ya están colaborando en grandes proyectos con los Estados Unidos y que ya tienen la tecnología muy avanzada e implementada”.

Los retos éticos de la Inteligencia Artificial

Una vez conocido el estado actual de la IA, el debate avanzó para reflexionar sobre la esfera ética de esta tecnología y los principales riesgos que puede comportar para la sociedad. Para ello, Karma Peiró recordó como en algunas ocasiones, en los algoritmos se han detectado errores que han llevado a discriminar a ciertos colectivos de la sociedad.

Ante este punto de vista, el Dr. Josep Lladós remarcó que debemos ser conscientes de que somos los humanos los que estamos detrás de la IA y los que decidimos lo que se debe hace con ella: “Los algoritmos están reflejando la sociedad y cuando se producen estos errores es porque se han entrenado con datos ya sesgados de origen. La IA por sí sola no es ética o no ética, sino que esto se adquiere con la finalidad con la que se programa. En el caso del CVC, por ejemplo, seguimos unas pautas de ética profesional y esto lo trasladamos a las empresas con las que trabajamos”.

La aplicación de un código ético es algo que también se debería tener en cuenta desde la empresa. La Dra. Carolina Pinart explicó como desde Nestlé, estos principios éticos se tienen en cuenta en todos los procesos de producción de la empresa: “Nosotros somos responsables de todo lo que producimos, ya sea un producto físico o un modelo de IA. En todo momento seguimos nuestros valores éticos y esto lo tenemos muy en cuenta cuando aplicamos IA. Hay modelos de IA de aprendizaje profundo que darían muy buenos resultados pero que finalmente no realizamos porque no podríamos ser del todo transparentes”.

Por su parte, el Sr. Daniel Marco manifestó como la perspectiva ética en la Inteligencia Artificial también se está considerando por parte del gobierno catalán, resaltando el gran peso que tiene esta esfera en la recién creada Estrategia Catalana de la Inteligencia Artificial o con la creación del Observatorio de Ética en Inteligencia Artificial de Catalunya. Por otro lado, Daniel Marco también remarcó que la ciudadanía todavía no es muy consciente de las consecuencias que puede tener la IA: “parece que los problemas y los derechos de las personas en el mundo digital no tienen la misma trascendencia que en el mundo real. En este sentido, la Generalitat impulsó la Carta catalana para los derechos y las responsabilidades digitales, pensando en poner en valor esta reflexión. Uno de los ámbitos de esta carta son los algoritmos de la IA y cómo hemos de mitigar sus riesgos. Necesitamos que estas tecnologías sean auditables, transparentes, se reduzcan los sesgos y se entiendan por el conjunto de la sociedad”.

Esta perspectiva se complementa con la del Dr. Albert Sabater, que añadió: “Debemos partir de la base que la gente no conoce los principios básicos de la IA. Estamos situados en un debate social que amplifica lo que se ha hecho mal. Existe un cierto temor a todo aquello que se relaciona con la IA y esto no debe ser así. Nosotros debemos ser capaces de cuantificar hasta qué punto hay una serie de principios éticos que se pueden adoptar y cómo podemos trasladar a la sociedad que hay sistemas de IA que son claramente fiables”. Además, el director del Observatorio de Ética en IA añadió: “El tema de los principios éticos en IA debe partir de la base de si debemos o no debemos utilizar IA. Esto de la “primavera de la IA” está llevando a algunas empresas a utilizar IA cuando no tendrían por qué utilizarla y hay muchísimos casos, sobretodo de naturaleza social, en las que deberíamos ser más cautos. Los principios éticos de la IA son muchos y muy variados y los que hay aquí, por ejemplo, no son los mismos que en la China. Estandarizar estos principios no es una tarea fácil”.

Por último, la Dra. Laura Leal, profundizó en las dos cuestiones que considera más problemáticas en desarrollo de la Inteligencia Artificial: los sesgos y las métricas. En cuanto a los sesgos, explicó que, a parte de los datos ya sesgados de origen que se utilizan para entrenar a los algoritmos, la poca diversidad en los equipos de trabajo agrava todavía más este hecho: “En nuestros laboratorios tenemos poca diversidad, hay una mayoría de hombres blancos que desarrollan las tecnologías y esto lleva a sesgos”. En cuanto al segundo problema, la investigadora comenta: “otro problema son las métricas que utilizamos para medir si nuestros algoritmos funcionan bien. Estas solo miden la media y los extremos no cuentan. Al medir de esta forma hacemos que el algoritmo sea aún más sesgado ya que funcionará con aquellos datos que tenemos en mayor cantidad. Esto se ve reflejado cuando la tecnología llega a la sociedad, ya que genera discriminación”.

Ley de la Inteligencia Artificial: necesaria y urgente

En cuanto a la necesidad de impulsar una ley para regular la Inteligencia Artificial, los cinco ponentes responden de forma unánime: es totalmente necesaria y muy urgente.

Por su parte, el Dr. Josep Lladós opinó que esta ley debe ir más allá de la Inteligencia Artificial: “Yo no hablaría de una ley de la IA únicamente, sino de una ley más genérica de tecnología. Ya existen legislaciones en algunos ámbitos, pero quizás esta componente ética no está del todo implementada en dichas leyes”. Opinión que se complementa con las declaraciones de la Dra. Laura Leal: “Toda tecnología puede utilizarse de modo incorrecto por lo que necesitamos leyes para prevenir esto. Tenemos que entender cómo funciona la tecnología y regular dónde y cuándo se debe utilizar para el beneficio común”.

Tanto Daniel Marco como el Dr. Albert Sabater coincidieron en el hecho de que esta ley debería ser, como mínimo, de ámbito europeo. Daniel Marco insiste en que la regulación se debe pensar en un doble prisma: “debe proteger los derechos de los ciudadanos y la seguridad, pero también debe fomentar la innovación”. A lo que Albert Sabater remarcó la importancia de que esta ley haga énfasis en los datos que se subministran para entrenar a los algoritmos y que contemple los llamados casos de “Inteligencia Artificial fraudulenta”: “Estamos delante de muchas organizaciones y empresas que están hablando de IA cuando en realidad no lo es, es un proceso de digitalización simplemente o una tecnología tan avanzada que puede confundirse con IA. La IA fraudulenta tiene consecuencias, sobre todo en aquello que es muy difícil de predecir, acaba teniendo sesgos y estos sesgos también provienen del subministro”.

Finalmente, en cuanto al papel de las empresas dentro de la ley de la Inteligencia Artificial, la Dra. Carolina Pinart puso de manifiesto la necesidad de garantizar que todas las empresas cumplan con la normativa, incluso en aquellos sitios en los que no exista normativa o sea más laxa: “no solo hay que proteger con leyes en los sitios donde sabemos que habrá leyes, sino que se debe incluir a las empresas en el debate social para que estas cumplan unos estándares de calidad en los sitios donde no habrá estas leyes a corto o medio plazo”.

La ciudadanía en el centro del debate sobre el futuro de la Inteligencia Artificial

Durante el debate, los ponentes reiteraron en varias ocasiones la importancia de explicar a la ciudadanía qué es la Inteligencia Artificial para poder desarrollar una sociedad adaptada y preparada a los desafíos venideros de la transformación digital. “La IA debe ser plural, y debe ser entienda por el conjunto de la sociedad. Dentro de la Estrategia de Inteligencia Artificial de Catalunya, una parte fundamental es la formación de la ciudadanía. Desde la Generalitat de Catalunya vamos a poner en marcha programas para formar a profesionales, pero también para entender, como usuarios, cómo funciona la IA”, explicó Dani Marco.

El ciclo de diálogos “Inteligencia Artificial, ética y participación ciudadana”, busca precisamente colocar al ciudadano en el medio del debate sobre el futuro de la IA, dando una visión ajustada de la realidad de la tecnología, de cara a reflexionar de forma conjunta sobre cómo queremos que la tecnología avance al mismo rumbo que nuestros valores y derechos democráticos. Si quieres participar en las próximas sesiones, puedes consultar el calendario de actividades en la página web del proyecto: http://iabcn.cvc.uab.es/

El CIDAI impulsa la innovació i l’adopció de la Intel·ligència Artificial a Catalunya

El Centre of Innovation for Data tech and Artificial Intelligence (CIDAI) ha celebrat el seu acte de presentació aquest dimarts 15 de setembre, on s’ha posat en relleu el potencial que ofereix la transferència de solucions tecnològiques basades en Intel·ligència Artificial en el teixit social i empresarial i s’ha refermat la importància d’accelerar l’adopció d’aquest àmbit tecnològic per consolidar Catalunya com un hub digital a nivell internacional.

Emmarcat dins de l’estratègia Catalonia.AI de la Generalitat de Catalunya i coordinat pel centre tecnològic Eurecat, el CIDAI és una iniciativa publicoprivada que compta amb l’Ajuntament de Barcelona, el Barcelona Supercomputing Center, el Centre de Visió per Computador, everis, la Fundació i2CAT, Microsoft i SDG Group.

A l’acte de presentació del CIDAI, que s’ha celebrat en format online, s’ha donat a conèixer els seus eixos d’activitat i hi han intervingut el Director General d’Innovació i Economia Digital de la Generalitat de Catalunya, Daniel Marco; el Comissionat d’Innovació Digital, Administració Electrònica i Bon Govern de l’Ajuntament de Barcelona, Michael Donaldson; la directora per la Intel·ligència Artificial i la Indústria Digital de la Comissió Europea, Lucilla Sioli, i el director del CIDAI, Marc Torrent, a més de representants dels partners que prenen part de la iniciativa. També hi ha participat el co-fundador i CEO de BigML, Dr. Francisco J. Martín, que ha compartit les seves reflexions, després de fundar i gestionar amb èxit diverses empreses en territori nacional i als Estats Units.

Durant la jornada, també s’ha dut a terme una taula rodona amb representants del centres de recerca que són socis promotors del CIDAI, en la que s’ha posat en relleu l’activitat i el potencial d’innovació dels centres de recerca catalans en el camp de la Intel·ligència Artificial. En aquest debat hi ha participat el Dr. Josep Lladós, director del CVC que ha destacat la Visió per Computador com una de les subàrees de la Intel·ligència Artificial amb més impacte i massa crítica a Catalunya, amb un ecosistema de més de 1.100 professionals i amb un volum de negoci de 160 milions d’euros només al 2019. Segons el Dr. Josep Lladós: “El CIDAI serà una gran ajuda per impulsar i donar visibilitat a la comunitat de la Visió per Computador, que treballa en primer nivell dins de l’àmbit mundial”.

SOBRE EL CIDAI

La finalitat del CIDAI és consolidar un espai on la demanda avançada pugui conèixer de primera mà els avantatges de la Intel·ligència Artificial aplicada a molts sectors, a fi que tota la comunitat pugui veure i generar noves expectatives, nous models de negoci i nous llocs de treball basats en aquesta tecnologia en els propers tres anys.

Per fer-ho possible, s’inspira en el model de Centres de Competència dels Digital Innovation Hubs establert per la Comissió Europea i està configurat com un centre en xarxa al servei de les empreses i institucions. En aquest sentit, els eixos que vertebren el CIDAI són la utilitat i l’impacte, a partir del diàleg constant tant amb petites i mitjanes empreses com amb grans companyies i organitzacions de l’entorn per prioritzar i impulsar les iniciatives i tecnologies més rellevants.

Altres valors del CIDAI són l’excel·lència, la neutralitat i els principis ètics, amb el desenvolupament d’activitats i projectes liderats per experts en l’àmbit, amb vigilància tecnològica continuada i l’aplicació de bones pràctiques a nivell europeu i la proximitat, amb la idea d’inspirar, demostrar i fer més accessible l’estat de l’art per a les empreses i les institucions coordinant agents de tot el territori.

En conjunt, el CIDAI té com a objectiu la generació, validació i transferència de tecnologies d’Intel·ligència Artificial fiable d’alt valor afegit per fomentar la innovació en els sectors estratègics del país, inclosos els serveis públics i el tercer sector, i la identificació de propostes tecnològiques innovadores provinents de recerca capdavantera en Intel·ligència Artificial, per difondre-les a empreses i institucions.

Potenciar l’ecosistema català d’Intel·ligència Artificial com un pol de referència internacional creant una comunitat connectada, activa i dinàmica que impliqui a la majoria dels agents és un altre dels objectius del CIDAI, que té també com a finalitat accelerar l’adopció de la Intel·ligència Artificial fiable en el món empresarial i a la societat, mitjançant projectes que demostrin el seu benefici i reduint les barreres existents.

Entre les seves primeres activitats destaca la coordinació tècnica del primer observatori per detectar i preveure futures epidèmies basat en Big Data i Intel·ligència Artificial, que s’ha posat en marxa el mes de juliol a Catalunya.

Winter Conference on Applications of Computer Vision (WACV 2020)

This year’s Winter Conference on Applications of Computer Vision took place in Aspen, Colorado from the 1st to the 5th of March. This Conference is “the IEEE’s and the PAMI-TC’s premier meeting on applications of computer vision”. The CVC researchers that attended were PhD students Lei Kang, Raúl Gómez, Edgar Riba and Andrés Mafla.

The papers presented were the following: 

L. Kang, M. Rusiñol, A. Fornés, P. Riba, M. Villegas (2019): Unsupervised Writer Adaptation for Synthetic-to-Real Handwritten Word Recognition

R. Gómez, J. Gibert, L. Gómez, D. Karatzas (2019): Exploring Hate Speech Detection in Multimodal Publications

E. Riba, D. Mishkin, D. Ponsa, E. Rublee, G. Bradski (2019): Kornia: an Open Source Differentiable Computer Vision Library for PyTorch

A. Mafla, S. Dey, A.F. Biten, L. Gómez, D. Karatzas (2019): Fine-grained Image Classification and Retrieval by Combining Visual and Locally Pooled Textual Features

 

Dr. Alicia Fornés and Dr. Dimosthenis Karatzas, invited speakers at this year’s Global Forum on AI for Humanity

A gathering of more than 150 researchers in Paris, the Global Forum AI for Humanity has the aim of setting the foundations for a global think tank in AI. This year’s meeting took place at the end of October, with a set of professionals from varied disciplines who analysed future challenges and opportunities of this technology.

Organised by the ‘Programme national de recherché française en IA’ and coordinated by INRIA, the Forum had the patronage of France’s Republic president, Mr. Emmanuel Macron and was an opportunity for professionals from different sectors, such as industry, humanities or the public administration, to gain insight on the current advances of Artificial Intelligence.

Dr. Dimosthenis Karatzas and Dr. Alicia Fornés were two of the more than 150 invited researchers who gave their expertise about this subject. Dr. Alicia Fornés was part of the expert panel dedicated to Digital History, in which she talked about the combination of computer vision and gamification for transcribing historical manuscripts. Dr. Dimosthenis Karatzas, on the other hand, took part in the future of the machines and social interaction & intervention session talking about “Surviving in man-made environments: the case for language and vision”.

The event was held within the framework of the French government’s national strategy for Artificial Intelligence, and was an opportunity to identify a set of guidelines for three main themes. Firstly, the development of an ecosystem of talent; secondly, the dissemination of AI and its transfer to the economy and public administration, and lastly, the implementation of an ethical model which fosters innovation whilst maintaining the protection of fundamental rights.

As stated by the main organisers of the event, “the Global Forum on AI for Humanity is essential to establish a common comprehension of the new perspectives offered by AI, of the problems that emerge and the methods used that will allow us to solve these new challenges”. Furthermore, it aims to “create a set of recommendations for national and international initiatives”.

Dr. Alicia Fornés and Dr. Dimosthenis Karatzas were not the only representatives of Spain in this gathering. Dr. Ramon López de Màntaras, Director of the Institute of Artificial Intelligence, was also invited, along with Dr. Carme Torras, Director of the Institute of Research in Robotics, Dr. Ricardo Baeza Yates, Professor of the UPF, (the three of them also located in Barcelona) and Dr. Enrique Vidal, from the Polytechnic University of Valencia.


Related articles: 

Defined By The Looks: When Text Meets Visual Information

XARXES: Connecting The Lives Of Our Ancestors