A new symposium claims the importance of Barcelona in Artificial Intelligence

Global experts in Deep Learning will meet in Barcelona on December 20 and 21.

Barcelona will host on December 20 and 21 a new symposium on Deep Learning, Deep Learning Barcelona Symposium (DLBCN), one of the driving forces of the current technological revolution around Artificial Intelligence and Computer Vision. The symposium brings together top-level researchers who are either currently developing their research in Barcelona, ​​or have pursued part of their academic career in Barcelona.

Among these Oriol Vinyals stands out as one of the world’s leading experts in Deep Learning, currently at Google Deepmind, or Antonio Torralba, director of the new program that MIT has designed to understand intelligence.

This unique meeting brings together multidisciplinary researchers in the field of Deep Learning and it shows the potential of Barcelona to become the hub of AI in Southern Europe.

The symposium is organized by leading universities and local research centers in the field of Deep Learning.

Further information: http://deeplearning.barcelona.

Compitiendo contra la Inteligencia Artificial del coche autónomo

El pasado 12 de diciembre, y como cada miércoles hasta el 20/02/19, volvimos al Library Living Lab de mano del proyecto ExperimentAI, proyecto financiado por FECYT – Ministerio de Ciencia, Innovación y Universidades y organizado por el Centro de Visión por Computador, para mostrar a los asistentes cómo la Inteligencia Artificial de los coches autónomos es entrenada, con una actividad realmente espectacular: competir contra el coche autónomo dentro del mundo virtual desarrollado por el CVC: CARLA. 

Una demostración ambiciosa, pero que valió la pena. Con la sesión número 7 de ExperimentAI, ya son 130 personas las que han pasado, en un mes, por el Library Living Lab para conocer, de primer mano, la investigación que se realiza en España en visión por Computador e Inteligencia Artificial aplicada a cinco ámbitos muy concretos. En esta séptima sesión, volvimos a hablar de movilidad autónoma, pero con una puesta en escena diferentes y mucho más atractiva: la posibilidad de competir contra el coche autónomo y su inteligencia. También variamos el público, permitiendo que los más pequeños disfrutaran de una tarde tecnológica aprendiendo conceptos de investigación puntera en movilidad autónoma.

Nuestro doctorando, Felipe Codevilla, y nuestro técnico de apoyo, Marc Castelló, se situaron estratégicamente al lado de la demostración, para ir explicando a grandes y pequeños el funcionamiento de una carrera y qué era exactamente lo que estaban viviendo. La frase más repetida fue “esto no es un videojuego, es un simulador de código abierto de investigación“, y a partir de ahí, realizaban la explicación, mientras los participantes competían por dentro del mundo virtual contra la Inteligencia Artificial.

Uno de los más pequeños probando su destreza ante la Inteligencia Artificial del coche

https://twitter.com/CVC_UAB/status/1072908675206012928

Por otro lado, contamos con una explicación más teórica de los conceptos de anotación, ground truth y simulación por parte de otro miembro del equipo de investigación en movilidad autónoma, Marc García. Apoyado por los paneles explicativos, inició un debate con niños adultos sobre la importancia de la investigación dentro de este ámbito y la revolución que supone hacer uso de mundos virtuales.

 

Néstor Subiron, físico y programador, pilar del equipo de programadores de CARLA, volvió al Library Living Lab con su demostración, tal como hizo ya el 28/11/18, de cara a mostrar al público las funcionalidades internas del simulador, las diferentes capas con las que cuenta para poder entrenar al coche de forma efectiva, y dio la posibilidad a los asistentes de navegar, de forma autónoma, por dentro del mundo virtual, probando sensores, modificando características y emulando escenarios de entrenamiento. Todo ello, acompañado de preguntas e inquietudes que los participantes iban formulando, y el investigador iba respondiendo, entrando así en un debate altamente interesante sobre las posibilidades de toda esta tecnología.

Por último, el Dr. Antonio M. López, IP del proyecto, aprovechó para explicar su último proyecto, Vision Zero, un proyecto de ámbito internacional, desarrollado conjuntamente con Unity y otros partners globales, en el cual se pretende dar respuesta a través de medios de simulación a intersecciones de tráfico altamente conflictivas y congestionadas en diferentes ciudades del mundo.

El Dr. Antonio M. López, IP del proyecto, explica la iniciativa Vision Zero

Tuvimos asistentes de todas las edades. Los más pequeños disfrutaron con el juego del simulador, a la vez que los investigadores les explicaban que aquello no era un videojuego, sino un entorno virtual para hacer investigación. Las reacciones fueron realmente positivas, y los debates y diálogos que surgieron, como lo hacen siempre en estas sesiones, verdaderamente enriquecedores.

El aprendizaje de las máquinas: cómo les hemos enseñado a contar grandes aglomeraciones

Explicar el funcionamiento de las redes neuronales es una tarea altamente compleja que abordamos el 05 de diciembre dentro del proyecto ExperimentAI, financiado por FECYT – Ministerio de Ciencia, Innovación y Universidades y organizado por el Centro de Visión por Computador, que tiene lugar todos los miércoles en el Library Living Lab. Usamos un ejemplo muy concreto para nuestra explicación: cómo hemos enseñado a los ordenadores a contar grandes aglomeraciones de personas.  

El proyecto ExperimentAI, como se ha mencionado en crónicas anteriores, tiene como finalidad acercar, de forma didáctica, lúdica e interactiva, la investigación puntera en Inteligencia Artificial y Visión por Computador que se realiza en España a un público amplio y no especialista. El proyecto cuenta siempre con demostraciones, talleres y actividades que demuestran los resultados últimos de proyectos de investigación en curso.

En este caso, la sesión fue más divulgativa que interactiva, realizando una explicación de cómo funcionan las redes neuronales computacionales por parte de uno de nuestros investigadores, Marc Masana, que se encuentra en su último año de doctorado en el Centro de Visión por Computador, y con un ejemplo práctico que ha estado en boca de muchos en el último año: el contador de grandes aglomeraciones desarrollado por el mismo centro, y por el grupo de investigación en el cual está integrado Marc Masana. Dicho contador fue presentado en uno de los congresos más prestigiosos del mundo del Machine Learning y la visión por Computador, el CVPR 2018 (Computer Vision and Pattern Recognition Conference).

Marc Masana explica el reto de contar personas con un paralelismo a la visión humana

Esta tecnología tiene un gran potencial de cara a ser transferido a la sociedad, además de resultar muy curioso a un público generalista. Se trata de un gancho perfecto para explicar la compleja maquinaria que hay detrás, y así lo hizo Marc Masana (becado con una FI Fellowship AGAUR 2017, con el apoyo de la Secretaria d’Universitats i Recerca de la Generalitat de Catalunya y del Fondo Social Europeo.), explicando el paralelismo con el cerebro humano, explicando el modelo de entrenamiento y la complejidad de estas redes neuronales computacionales, siempre realizando un análisis real de las capacidades de estos algoritmos, sin mitificar a la máquina.

Tras la explicación y un debate interesante con los asistentes, que fue altamente enriquecedor, la responsable de Comunicación del Centro, Alexandra Canet, enseñó el funcionamiento de esta tecnología, probando diferentes fotografías de grandes grupos de aglomeraciones de personas, y explicando las características técnicas que han hecho posible esta tecnología y su transferencia hacia la sociedad. También, se realizó un pequeño juego en el cual los humanos tenían que decidir frente a la máquina. Cada uno daba su veredicto a la cantidad de gente dentro de una imagen, comparando luego el dato proporcionado por la máquina, y contrastando así el margen de error de humanos y máquina. En la mayoría de los casos, la máquina tenía el margen de error más pequeño.

Alexandra Canet compara las estimaciones de los participantes con aquellas de la máquina y estima así el margen de error de cada uno.

 

Entrenando a los coches autónomos a conducir en ExperimentAI

El 28 de noviembre, volvimos al Library Living Lab de mano del proyecto ExperimentAI, proyecto financiado por FECYT – Ministerio de Ciencia, Innovación y Universidades y organizado por el Centro de Visión por Computador, para explicar a los asistentes cómo estamos entrenando a los coches autónomos haciendo uso de mundos virtuales. 

La movilidad autónoma se postula como paradigma de futuro, pero el recorrido hasta la misma no es fácil, ni está tan cerca. Esta realidad es desconocida para el público en general, ya que el marketing y la publicidad de las grandes marcas automóviles, como TESLA, presentan al coche inteligente como un futuro inmediato. Nuestros investigadores, Felipe Codevilla, Nestor Subiron, Marc García y el artista Xavier Godina, se presentaron el 28/11/18 en el Library Living Lab dentro de la sesión 05 del proyecto ExperimentAI para explicar en qué punto está esta investigación, con una serie de demostraciones y explicaciones altamente interactivas, que sumergieron a los participantes en un laboratorio de investigación en movilidad autónoma, con sus victorias y derrotas.

Los participantes pudieron bucear en dos mundos virtuales desarrollados por el CVC, conjuntamente con Intel y Toyota, CARLA y SYNTHIA, de cara a conocer las últimas tendencias en entrenamiento de algoritmos inteligentes dentro de mundos virtuales. CARLA es un simulador de código abierto, uno de los proyectos punteros a nivel mundial dentro de este ámbito, en un proyecto de investigación conjuntamente con grandes marcas como Toyota o Intel, liderado por el Investigador Principal, el Dr. Antonio López Peña.

En esta sesión, los cuatro miembros del equipo se dividieron para dar, cada uno, una demostración/ explicación práctica de su trabajo en el laboratorio, día a día. Felipe Codevilla, estudiante de doctorado en su último año, explicó de forma altamente didáctica los diferentes modelos de entrenamiento del coche, tanto dentro del simulador como fuera, respondiendo a cuestiones de los asistentes tales como, ¿realmente son ya autónomos los coches que circulan por la carretera de TESLA? o, ¿quién decide qué priorizar ante un accidente? de los cuales surgieron debates interesantes entre los mismos asistentes.

Felipe Codevilla realizando una explicación didáctica sobre los diferentes modelos de aprendizaje del vehículo autónomo

Nestor Subiron, físico y programador, uno de los pilares de la construcción del simulador CARLA, tenía preparado el simulador para ser probado por los asistentes, los cuales pudieron navegar por el mundo, pasando por las diferentes capas que tiene el mismo y explicando, en cada una de ellas, la función que desempeñan en el aprendizaje del vehículo inteligente. Los más pequeños se entretuvieron explorando el universo virtual y recorriendo las diferentes calles de las ciudades que se mostraron.

Néstor Subiron enseña CARLA y sus funcionalidades a los participantes
Los más pequeños intentaron navegar por dentro de la ciudad, simulando un videojuego

Marc García, programador también y miembro del equipo, realizó una explicación más ‘analógica’, con paneles explicativos que detallaban la necesidad de crear mundos virtuales frente a las problemáticas de entrenar a los coches dentro del mundo físico. De esta discusión salieron conclusiones altamente interesantes como la posibilidad de que el coche esté viviendo en una matrix y su dificultad a la hora de adaptarse al mundo físico, así como los problemas éticos que hace desaparecer la simulación si se aplica correctamente.

Marc García, con una explicación más analógica del porqué del uso de los mundos virtuales, sus virtudes y dificultades.

Por último, uno de los artistas del simulador, Xavier Godina, montó una estación de diseño en el Library Living Lab y demostró a los participantes cómo se van construyendo diferentes módulos o elementos de las ciudades, dando a entender la complejidad de su trabajo. Algunos participantes, más avezados, intentaron usar la herramienta para descubrir que, efectivamente, crear dentro de mundos virtuales, tiene una complejidad elevada.

Xavier Godina, explicando la construcción de los elementos dentro del mundo virtual a los participantes
Xavier godina, con una explicación para los participantes más pequeños.

La reacción general de los asistentes fue altamente positiva, ya que se encontraron con un entorno de trabajo altamente motivador en el que pudieron observar los diferentes elementos que hacen falta para integrarlos en un laboratorio de conducción autónoma en mundos virtuales.

 

 

 

 

 

This Project has been cofounded by the European Union by its European Regional Development Funds program.

 

 

CVC people at NeurIPS 2018

We had a good representation of CVC people at this year’s NeurIPS which took place on the first week of December in Montreal. The articles presented were the following:

‘Memory Replay GANs: learning to generate images from new categories without forgetting, by authors Chenshen Wu, Luis Herranz, Xialei Liu, Yaxing Wang, Dr. Joost van de Weijer and Dr. Bogdan Raducanu (all from CVC);

Image-to-image translation for cross-domain disentanglement, by authors Dr. Abel González, Dr. Joost van de Weijer and Dr. Yoshua Bengio;

‘TADAM: Task dependent adaptive metric for improved few-shot learning, by authors Boris N. Oreshkin, Pau Rodriguez (CVC member) and Dr. Alexandre Lacoste

At the Metalearning Workshop:

Cross-Modulation Networks for Few-Shot Learning, by authors Hugo Prol (CVC master student), Vicent Dumoulin and Luis Herranz.