close

ExperimentAI

CVC LabsEvents & CommunityExperimentAI

Detectando nuestra personalidad aparente con visión por computador

_DSC8053

El pasado miércoles 23 de enero y, como cada miércoles des del 7/11/2018 hasta el 20/02/2019, regresamos al Library Living Lab con una nueva sesión de ExperimentAI, un proyecto organizado por el Centro de Visión por Computador y financiado por FECYT – Ministerio de Ciencia, Innovación y Universidades para acercar la ciencia y la tecnología a la ciudadanía. Esta vez, nos reunimos para mostrar como la Inteligencia Artificial puede detectar la personalidad aparente de una persona y cómo esta tecnología puede utilizarse en distintos ámbitos como, por ejemplo, en los Recursos Humanos.

La sesión consistió en 4 actividades – 3 para adultos y 1 para niños – partiendo, de este modo, a los asistentes en 4 grupos y rotando en cada ‘estación’ de cara a tener la oportunidad de escuchar de forma más personalizada cada una de las explicaciones y tener un trato más cercano con los investigadores. Esta dinámica de sesión ya la llevamos a cabo en pasadas sesiones del proyecto y su resultado ha sido muy satisfactorio, ya que permite a los asistentes establecer un diálogo muy interesante y enriquecedor con los investigadores.

En una de las estaciones, se encontraba el Dr. Sergio Escalera, investigador del Centro de Visión por Computador y de la Universidad de Barcelona e investigador principal del grupo Human Pose Recovery and Behavior Analysis (HuPBA), dedicado a investigar métodos computacionales capaces de identificar rasgos corporales y comportamientos personales en imágenes. El Dr. Escalera se encargó de hacer una presentación general sobre los análisis computacionales de la personalidad, un tema que ha llamado mucho la atención a la comunidad de la visión artificial y el Machine Learning en los últimos años.

En otra estación, estaba el Dr. Xavier Baró, investigador de la Universitat Oberta de Barcelona, mostrando un conjunto de paneles informativos que explicaban de una forma muy ilustrativa el método con el que han entrenado el software y la base psicológica que hay detrás de esta tecnología. El método parte de la teoría psicológica OCEAN, también conocido como The Big Five o Five-Factor Model. Este método evalúa y analiza la composición de cinco dimensiones de la personalidad humana: abertura a la experiencia, responsabilidad, extraversión amabilidad e inestabilidad emocional.

En la estación restante, había una demostración tecnológica en la que todos los participantes pudieron conocer los resultados de su personalidad aparente mediante un vídeo. En este caso, los usuarios tenían que hablar a cámara durante unos quince segundos y, después de procesar el vídeo, la máquina indicaba que porcentaje tenían de cada uno de los rasgos de personalidad que conforman el modelo OCEAN. De la explicación de la demostración se encargaron Coen Antens, responsable de la Unidad de Soporte Técnico del CVC, y Julio Jacques Jr., estudiante de doctorado del grupo HuPBA, con los que los participantes pudieron debatir sobre las concordancias entre las predicciones de la tecnología y sus propias opiniones.

En esta sesión, los niños también tuvieron su espacio para experimentar y descubrir el uso de la Inteligencia Artificial en el análisis del comportamiento humano. Ellos aprendieron cómo se detectan las emociones mediante visión por computador y vieron cómo funcionan los sistemas de reconocimiento facial de una forma lúdica y distendida. Finalmente, también pudieron probar la demostración tecnológica, haciendo distintos roles y actuando como si fueran distintos personajes para poner a prueba las predicciones de la máquina.

read more
CVC LabsEvents & CommunityExperimentAI

Conociendo el proyecto de escaneo 3D de los capiteles del Monasterio de Sant Cugat

_DSC7940

El pasado miércoles 16 de enero volvimos al Library Living Lab con una nueva sesión del proyecto ExperimentAI, una iniciativa del Centro de Visión por Computador y financiada por FECYT – Ministerio de Ciencia, Innovación y Universidades que tiene el objetivo de acercar la Inteligencia Artificial y la Visión por Computador a la ciudadanía. Esta vez, descubrimos como la tecnología puede ayudar en otros ámbitos de conocimiento, como es el caso de la arquitectura, la historia y la cultura y lo vimos con el ejemplo de los Capiteles del Claustro del Monasterio de Sant Cugat.

En mayo de 2018, los usuarios del Library Living Lab junto con el Centro de Visión por Computador y el Museo de San Cugat, desarrollaron un innovador proyecto de participación ciudadana para escanear en 3D los capiteles del claustro del Monasterio de Sant Cugat, con el objetivo de elaborar el primer catálogo en 3D de estas obras de arte. Ahora, unos meses más tarde de todo este proceso, El Dr. Fernando Vilariño, director asociado del CVC y presidente de la Red Europea de Living Labs (ENoLL), presentó y explicó detalladamente el proyecto ante todos los participantes de la sesión de ExperimentAI y valoró los beneficios y posibilidades que tiene la digitalización del patrimonio cultural para la sociedad.

Durante la sesión, los asistentes pudieron conocer de primera mano cómo surgió el proyecto y como se llevó a cabo todo el proceso. Además, también aprendieron cómo funciona la técnica de la fotogrametría, utilizada para generar las impresiones 3D de los capiteles, y cómo se desarrolla el proceso de postproducción y edición de los modelos 3D.

Por otro lado, el Dr. Fernando Vilariño, mostró a los asistentes los modelos virtuales de los capiteles, que permiten observar los capiteles con todo lujo de detalle e, incluso, detectar ciertas particularidades que son imposibles de percibir cuando observas los capiteles físicos. No obstante, lo que más asombro al público fue, sin duda, saber que este catálogo interactivo está al alcance de todos y puede consultarse en cualquier momento y desde cualquier sitio.

La sesión también contó con una exposición de las piezas impresas en 3D a partir de las reproducciones de los modelos generados virtualmente. Con ellos, los participantes pudieron apreciar el valor histórico de estas maravillosas joyas del románico catalán datadas del siglo XII.  

Para concluir la sesión, el señor Miquel Perelló, uno de los ciudadanos que participó en el proyecto de escaneo 3D de los capiteles el pasado mes de mayo, explicó cómo fue su experiencia y valoró muy positivamente su participación en este tipo de proyectos, recomendado a todos los presentes participar en futuras sesiones para poder ampliar el catálogo interactivo y tener el total de los 144 capiteles digitalizados.

read more
CVC LabsEvents & CommunityExperimentAI

Compitiendo contra la Inteligencia Artificial del coche autónomo

DuO-J47WwAY0QsN

El pasado 12 de diciembre, y como cada miércoles hasta el 20/02/19, volvimos al Library Living Lab de mano del proyecto ExperimentAI, proyecto financiado por FECYT – Ministerio de Ciencia, Innovación y Universidades y organizado por el Centro de Visión por Computador, para mostrar a los asistentes cómo la Inteligencia Artificial de los coches autónomos es entrenada, con una actividad realmente espectacular: competir contra el coche autónomo dentro del mundo virtual desarrollado por el CVC: CARLA. 

Una demostración ambiciosa, pero que valió la pena. Con la sesión número 7 de ExperimentAI, ya son 130 personas las que han pasado, en un mes, por el Library Living Lab para conocer, de primer mano, la investigación que se realiza en España en visión por Computador e Inteligencia Artificial aplicada a cinco ámbitos muy concretos. En esta séptima sesión, volvimos a hablar de movilidad autónoma, pero con una puesta en escena diferentes y mucho más atractiva: la posibilidad de competir contra el coche autónomo y su inteligencia. También variamos el público, permitiendo que los más pequeños disfrutaran de una tarde tecnológica aprendiendo conceptos de investigación puntera en movilidad autónoma.

Nuestro doctorando, Felipe Codevilla, y nuestro técnico de apoyo, Marc Castelló, se situaron estratégicamente al lado de la demostración, para ir explicando a grandes y pequeños el funcionamiento de una carrera y qué era exactamente lo que estaban viviendo. La frase más repetida fue “esto no es un videojuego, es un simulador de código abierto de investigación“, y a partir de ahí, realizaban la explicación, mientras los participantes competían por dentro del mundo virtual contra la Inteligencia Artificial.

Uno de los más pequeños probando su destreza ante la Inteligencia Artificial del coche

Por otro lado, contamos con una explicación más teórica de los conceptos de anotación, ground truth y simulación por parte de otro miembro del equipo de investigación en movilidad autónoma, Marc García. Apoyado por los paneles explicativos, inició un debate con niños adultos sobre la importancia de la investigación dentro de este ámbito y la revolución que supone hacer uso de mundos virtuales.

 

Néstor Subiron, físico y programador, pilar del equipo de programadores de CARLA, volvió al Library Living Lab con su demostración, tal como hizo ya el 28/11/18, de cara a mostrar al público las funcionalidades internas del simulador, las diferentes capas con las que cuenta para poder entrenar al coche de forma efectiva, y dio la posibilidad a los asistentes de navegar, de forma autónoma, por dentro del mundo virtual, probando sensores, modificando características y emulando escenarios de entrenamiento. Todo ello, acompañado de preguntas e inquietudes que los participantes iban formulando, y el investigador iba respondiendo, entrando así en un debate altamente interesante sobre las posibilidades de toda esta tecnología.

Por último, el Dr. Antonio M. López, IP del proyecto, aprovechó para explicar su último proyecto, Vision Zero, un proyecto de ámbito internacional, desarrollado conjuntamente con Unity y otros partners globales, en el cual se pretende dar respuesta a través de medios de simulación a intersecciones de tráfico altamente conflictivas y congestionadas en diferentes ciudades del mundo.

El Dr. Antonio M. López, IP del proyecto, explica la iniciativa Vision Zero

Tuvimos asistentes de todas las edades. Los más pequeños disfrutaron con el juego del simulador, a la vez que los investigadores les explicaban que aquello no era un videojuego, sino un entorno virtual para hacer investigación. Las reacciones fueron realmente positivas, y los debates y diálogos que surgieron, como lo hacen siempre en estas sesiones, verdaderamente enriquecedores.

read more
CVC LabsEvents & CommunityExperimentAI

El aprendizaje de las máquinas: cómo les hemos enseñado a contar grandes aglomeraciones

_DSC7230

Explicar el funcionamiento de las redes neuronales es una tarea altamente compleja que abordamos el 05 de diciembre dentro del proyecto ExperimentAI, financiado por FECYT – Ministerio de Ciencia, Innovación y Universidades y organizado por el Centro de Visión por Computador, que tiene lugar todos los miércoles en el Library Living Lab. Usamos un ejemplo muy concreto para nuestra explicación: cómo hemos enseñado a los ordenadores a contar grandes aglomeraciones de personas.  

El proyecto ExperimentAI, como se ha mencionado en crónicas anteriores, tiene como finalidad acercar, de forma didáctica, lúdica e interactiva, la investigación puntera en Inteligencia Artificial y Visión por Computador que se realiza en España a un público amplio y no especialista. El proyecto cuenta siempre con demostraciones, talleres y actividades que demuestran los resultados últimos de proyectos de investigación en curso.

En este caso, la sesión fue más divulgativa que interactiva, realizando una explicación de cómo funcionan las redes neuronales computacionales por parte de uno de nuestros investigadores, Marc Masana, que se encuentra en su último año de doctorado en el Centro de Visión por Computador, y con un ejemplo práctico que ha estado en boca de muchos en el último año: el contador de grandes aglomeraciones desarrollado por el mismo centro, y por el grupo de investigación en el cual está integrado Marc Masana. Dicho contador fue presentado en uno de los congresos más prestigiosos del mundo del Machine Learning y la visión por Computador, el CVPR 2018 (Computer Vision and Pattern Recognition Conference).

Marc Masana explica el reto de contar personas con un paralelismo a la visión humana

Esta tecnología tiene un gran potencial de cara a ser transferido a la sociedad, además de resultar muy curioso a un público generalista. Se trata de un gancho perfecto para explicar la compleja maquinaria que hay detrás, y así lo hizo Marc Masana (becado con una FI Fellowship AGAUR 2017, con el apoyo de la Secretaria d’Universitats i Recerca de la Generalitat de Catalunya y del Fondo Social Europeo.), explicando el paralelismo con el cerebro humano, explicando el modelo de entrenamiento y la complejidad de estas redes neuronales computacionales, siempre realizando un análisis real de las capacidades de estos algoritmos, sin mitificar a la máquina.

Tras la explicación y un debate interesante con los asistentes, que fue altamente enriquecedor, la responsable de Comunicación del Centro, Alexandra Canet, enseñó el funcionamiento de esta tecnología, probando diferentes fotografías de grandes grupos de aglomeraciones de personas, y explicando las características técnicas que han hecho posible esta tecnología y su transferencia hacia la sociedad. También, se realizó un pequeño juego en el cual los humanos tenían que decidir frente a la máquina. Cada uno daba su veredicto a la cantidad de gente dentro de una imagen, comparando luego el dato proporcionado por la máquina, y contrastando así el margen de error de humanos y máquina. En la mayoría de los casos, la máquina tenía el margen de error más pequeño.

Alexandra Canet compara las estimaciones de los participantes con aquellas de la máquina y estima así el margen de error de cada uno.

 

read more
CVC LabsEvents & CommunityExperimentAI

Entrenando a los coches autónomos a conducir en ExperimentAI

El 28 de noviembre, volvimos al Library Living Lab de mano del proyecto ExperimentAI, proyecto financiado por FECYT – Ministerio de Ciencia, Innovación y Universidades y organizado por el Centro de Visión por Computador, para explicar a los asistentes cómo estamos entrenando a los coches autónomos haciendo uso de mundos virtuales. 

La movilidad autónoma se postula como paradigma de futuro, pero el recorrido hasta la misma no es fácil, ni está tan cerca. Esta realidad es desconocida para el público en general, ya que el marketing y la publicidad de las grandes marcas automóviles, como TESLA, presentan al coche inteligente como un futuro inmediato. Nuestros investigadores, Felipe Codevilla, Nestor Subiron, Marc García y el artista Xavier Godina, se presentaron el 28/11/18 en el Library Living Lab dentro de la sesión 05 del proyecto ExperimentAI para explicar en qué punto está esta investigación, con una serie de demostraciones y explicaciones altamente interactivas, que sumergieron a los participantes en un laboratorio de investigación en movilidad autónoma, con sus victorias y derrotas.

Los participantes pudieron bucear en dos mundos virtuales desarrollados por el CVC, conjuntamente con Intel y Toyota, CARLA y SYNTHIA, de cara a conocer las últimas tendencias en entrenamiento de algoritmos inteligentes dentro de mundos virtuales. CARLA es un simulador de código abierto, uno de los proyectos punteros a nivel mundial dentro de este ámbito, en un proyecto de investigación conjuntamente con grandes marcas como Toyota o Intel, liderado por el Investigador Principal, el Dr. Antonio López Peña.

En esta sesión, los cuatro miembros del equipo se dividieron para dar, cada uno, una demostración/ explicación práctica de su trabajo en el laboratorio, día a día. Felipe Codevilla, estudiante de doctorado en su último año, explicó de forma altamente didáctica los diferentes modelos de entrenamiento del coche, tanto dentro del simulador como fuera, respondiendo a cuestiones de los asistentes tales como, ¿realmente son ya autónomos los coches que circulan por la carretera de TESLA? o, ¿quién decide qué priorizar ante un accidente? de los cuales surgieron debates interesantes entre los mismos asistentes.

Felipe Codevilla realizando una explicación didáctica sobre los diferentes modelos de aprendizaje del vehículo autónomo

Nestor Subiron, físico y programador, uno de los pilares de la construcción del simulador CARLA, tenía preparado el simulador para ser probado por los asistentes, los cuales pudieron navegar por el mundo, pasando por las diferentes capas que tiene el mismo y explicando, en cada una de ellas, la función que desempeñan en el aprendizaje del vehículo inteligente. Los más pequeños se entretuvieron explorando el universo virtual y recorriendo las diferentes calles de las ciudades que se mostraron.

Néstor Subiron enseña CARLA y sus funcionalidades a los participantes

Los más pequeños intentaron navegar por dentro de la ciudad, simulando un videojuego

Marc García, programador también y miembro del equipo, realizó una explicación más ‘analógica’, con paneles explicativos que detallaban la necesidad de crear mundos virtuales frente a las problemáticas de entrenar a los coches dentro del mundo físico. De esta discusión salieron conclusiones altamente interesantes como la posibilidad de que el coche esté viviendo en una matrix y su dificultad a la hora de adaptarse al mundo físico, así como los problemas éticos que hace desaparecer la simulación si se aplica correctamente.

Marc García, con una explicación más analógica del porqué del uso de los mundos virtuales, sus virtudes y dificultades.

Por último, uno de los artistas del simulador, Xavier Godina, montó una estación de diseño en el Library Living Lab y demostró a los participantes cómo se van construyendo diferentes módulos o elementos de las ciudades, dando a entender la complejidad de su trabajo. Algunos participantes, más avezados, intentaron usar la herramienta para descubrir que, efectivamente, crear dentro de mundos virtuales, tiene una complejidad elevada.

Xavier Godina, explicando la construcción de los elementos dentro del mundo virtual a los participantes

Xavier godina, con una explicación para los participantes más pequeños.

La reacción general de los asistentes fue altamente positiva, ya que se encontraron con un entorno de trabajo altamente motivador en el que pudieron observar los diferentes elementos que hacen falta para integrarlos en un laboratorio de conducción autónoma en mundos virtuales.

 

 

 

 

 

This Project has been cofounded by the European Union by its European Regional Development Funds program.

 

 

read more
CVC LabsEvents & CommunityExperimentAI

El reto de enseñar a los ordenadores a leer texto manuscrito y música

El 21 de noviembre, volvimos al Library Living Lab de mano del proyecto ExperimentAI, proyecto financiado por FECYT – Ministerio de Ciencia, Innovación y Universidades y organizado por el Centro de Visión por Computador.

El proyecto ExperimentAI, como se ha mencionado en crónicas anteriores, tiene como finalidad acercar, de forma didáctica, lúdica e interactiva, la investigación puntera en Inteligencia Artificial y Visión por Computador que se realiza en España a un público amplio y no especialista. El proyecto cuenta siempre con demostraciones, talleres y actividades que demuestran los resultados últimos de proyectos de investigación en curso.

En esta ocasión, la sesión quiso incidir en cómo estamos enseñando a los ordenadores a leer texto manuscrito y partituras de música de cara a mejorar procesos de nuestro día a día o de grandes volúmenes de trabajo, como el procesado de datos manuscritos a digitales en bancos, grandes firmas o Administración Pública. Se trata de una problemática de investigación no exenta de dificultades que ocupa ahora mismo grandes proyectos de investigación en el Centro de Visión por Computador y la Universitat Autònoma de Barcelona. 

Coordinaron la sesión 2 doctorandos altamente comprometidos con la divulgación de su trabajo: Arnau Baró y Pau Riba. Arnau Baró (becado con una FI Fellowship AGAUR 2018, con el apoyo de la Secretaria d’Universitats i Recerca de la Generalitat de Catalunya y del Fondo Social Europeo.) realizó la explicación sobre la identificación de notas musicales y la problemática de lectura de partituras antiguas, realizando una explicación didáctica de cuáles son los mecanismos que se utilizan actualmente, incidiendo en las dificultades y en todo el abanico de investigación que todavía queda abierto.

Arnau Baró realiza la explicación de cómo está enseñando a los ordenadores a leer partituras de música a los asistentes

Pau Riba realizó una explicación, apoyado por paneles explicativos, de las dificultades de la enseñanza del lenguaje escrito, especialmente el antiguo. Los asistentes siguieron atentos su explicación, con gran interés, ya que entre ellos había varios filólogos, que encontraron interesante las dificultades o cuestiones relativas a la filología con las cuales se estaban encontrando los investigadores en esta materia. Pau Riba incidió también en cómo se está abordando ahora esta temática de investigación, con una nueva forma de enseñar a los ordenadores a leer, ‘de secuencia a secuencia’ (from sequence to sequence), que es la técnica en la cual se les enseña a los ordenadores a leer letra por letra en un determinado orden.

Pau Riba realizó una explicación más teórica de los modelos de aprendizaje de lectura de texto manuscrito.

El Dr. Josep Lladós realizó una explicación básica, explicando qué es el OCR (Optical Character Recognitiony cuál es su funcionamiento. La explicación, altamente didáctica, trata la base de cómo un ordenador captura una imagen y le da sentido. Los participantes quedaron realmente encantados con esta explicación, resaltándola al final cuando se les pidió que valoraran la sesión. Jialuo Chen volvió a hacer acto de presencia, explicando el rol de la gamificación y dando a los asistentes la oportunidad de probar un juego para verificar que lo que los ordenadores estaban leyendo era correcto. Nuevamente, como en la sesión anterior, se sortearon dos gafas de realidad aumentada entre los asistentes que consiguieran más puntos en el juego.

El Dr. Llados realizando su explicación didáctica del OCR.

Y, finalmente, lo más esperado, la demostración de la tecnología. La escritura y el dibujo están altamente ligados, y el Dr. Joan Mas presentó una demostración de investigación puntera que realmente llamó la atención. El poder hallar fotografías de bases de datos realizando un simple esbozo. El funcionamiento se ve en este vídeo grabado al momento de presentar la tecnología en el Library Living Lab:

Las reacciones de los asistentes fueron realmente positivas, con comentarios como:

https://twitter.com/CVC_UAB/status/1065313863250391041

 

 

 

 

 

 

read more
CVC LabsEvents & CommunityExperimentAI

Descubriendo cómo se está construyendo la red social de nuestros antepasados

El 14 de noviembre, tuvo lugar la segunda sesión del proyecto ExperimentAI: Experimentando la Inteligencia Artificial y la Visión por Computador. Se trata de un proyecto financiado por la FECYT – Ministerio de Ciencia, Innovación y Universidades, organizado en el Library Living Lab por el Centro de Visión por ComputadorEl proyecto tiene como finalidad acercar, de forma didáctica, lúdica e interactiva, la investigación puntera en Inteligencia Artificial y Visión por Computador que se realiza en España a un público amplio y no especialista. El proyecto cuenta siempre con demostraciones, talleres y actividades que demuestran los resultados últimos de proyectos de investigación en curso. 

En esta sesión en concreto, los ciudadanos asistentes tuvieron la oportunidad de conocer cómo se están aplicando estas tecnologías para la democratización de nuestro pasado histórico. Coordinó la sesión la Dra. Alícia Fornés (CVC-UAB), conjuntamente con la Dra. Joana Maria Pujades (Centro de Estudios Demográficos), ambas IP del proyecto XARXES, financiado por Recercaixa. Este proyecto, conjuntamente con otras líneas de investigación dentro del Centro de Visión por Computador y la Universitat Autònoma de Barcelona, están digitalizando y transcribiendo automáticamente documentos censales antiguos de diferentes localidades de alrededor de Barcelona, de cara a crear un banco de información completa sobre la gente que ha vivido en estas localidades durante los últimos siglos; una especie de ‘Facebook’ histórico, en el que entrelazar nombres, relaciones, fotografías antiguas, mapas, etc. De esta manera, y como bien lo explicó uno de los investigadores dentro del proyecto, y director del CVC, el Dr. Josep Lladós: “no solo conoceremos la historia de los grandes reyes, que ya ha sido más que estudiada, sino que estamos poniendo el foco sobre nosotros mismos, la historia de nuestros tatarabuelos“.

La sesión consistió en 4 actividades, partiendo a los asistentes en 4 grupos, y rotando en cada ‘estación’ de cara a tener la oportunidad de probar cada demostración y escuchar a cada explicación de forma más personalizada e individualizada, con la oportunidad de realizar tantas preguntas como necesarias, y así poder establecer un debate y un diálogo con los investigadores. En primer lugar, la Dra. Joana Maria Pujades hizo una demostración explicativa del buscador que se está

La Dra. Joana Maria Pujades explicando el buscador del proyecto.

elaborando con toda la información que ya ha sido digitalizada y transcrita en el proyecto. En este buscador, que está accesible online y se encuentra en una fase de pruebas, los ciudadanos pudieron consultar apellidos de las localidades que han participado en el proyecto, y así extraer las relaciones que se han encontrado en los documentos censales, así como un mapa de migración o las imágenes, fotografías y documentos complementarios relacionados. La experiencia, especialmente para la audiencia de mayor edad, fue realmente enriquecedora.

 

La Dra. Alícia Fornés con su explicación de la teoría de grafos y clustering.

En segundo lugar, la Dra. Alícia Fornés aportaba una visión más teórica, con una explicación práctica de la teoría de grafos, así como de los conceptos de relación y ‘clustering’, apoyada por paneles explicativos, material diverso y confetti. Con esta explicación, la Dra. Fornés animó también a los asistentes a descubrir el problema de los puentes de Königsberg, a intentar solucionarlo, e introducir así la figura del matemático alemán Leonhard Euler. De esta manera, los asistentes pudieron entender la base teórica que sustenta el proyecto, con una comprensión más profunda de la que se suele lograr en actividades meramente expositivas.

Jialuo Chen explicando el concepto de gamificación y ejemplificando con el juego diseñado para el proyecto

Los participantes pudieron probar el juego

Jialuo Chen, técnico de apoyo del proyecto XARXES en el Centro de Visión por Computador, dio a los asistentes la oportunidad de probar el juego con el cual los investigadores están validando que los ordenadores, efectivamente, están leyendo la información correctamente, introduciendo así el concepto de gamificación. Chen explicó que los ordenadores se equivocan mucho y que todavía, a día de hoy, hacen falta humanos que validen que sus conclusiones son correctas, de cara al funcionamiento óptima de esta tecnología aplicada al buscador. De esta manera, y gamificando el proceso, conseguimos validar muchísimo más trabajo, que contando únicamente con voluntarios a los cuales se les puede llegar a exigir un volumen de trabajo demasiado elevado. Nuestros asistentes probaron el juego en diferentes dispositivos, animados, ya que podían ganar unas gafas de realidad aumentada si conseguían una gran cantidad de puntos.

Por último, el Dr. Josep Lladós, junto al Dr. Joan Mas, mostraban de forma interactiva cómo los ordenadores identifican las líneas en documentos (padrones, censos), cómo detectan las diferentes casas y cómo interrelacionan las diferentes palabras a lo largo del texto. Los participantes pudieron probar este demostrador, al cual se le da un documento manuscrito (un padrón), toma la imagen del mismo, y es capaz de identificar las diferentes líneas, cada una dentro de la casa que le pertoca. Asímismo, es capaz de identificar las palabras dentro del documento, cuando el humano toca sobre la misma, y  buscar las palabras relacionadas en el resto de documentos históricos que tiene en la base de datos ya aprendida. Una demostración interactiva que también gustó gracias a su elevado nivel de experiencia de usuario.

El Dr. Joan Mas realizando la demostración de la lectura de documentos manuscritos.

La actividad estaba enmarcada dentro de la serie ‘Mujeres y ciencia’ que tiene el proyecto; sesiones dedicadas a potenciar proyectos tecnológicos liderados por investigadoras. Al ser preguntados, los participantes comentaron, con especial relevancia, que era todo un lujo poder contar con los investigadores cara a cara explicando y defendiendo su proyecto con especial mención a la oportunidad de estar observando veritables resultados de investigación, recién sacados ‘del horno’.

 

read more
CVC LabsEvents & CommunityExperimentAI

Sesión inagural del proyecto ExperimentAI

El 7 de noviembre se inauguró el proyecto ExperimentAI, una iniciativa promovida y coordinada por el Centro de Visión por Computador y financiado por la Fundación Española para la Ciencia y la Tecnología – Ministerio de Ciencia, Innovación y Universidades, que acerca la Inteligencia Artificial a la sociedad.

La primera sesión de ExperimentAI arrancó con un discurso inaugural de la mano de Joana Barbany, Directora General de Sociedad Digital de la Generalitat de Cataluña y regidora de Sant Cugat del Vallès. Seguidamente, el Dr. Fernando Vilariño, Director Asociado del CVC, y Alexandra Canet, responsable de comunicación del CVC y organizadora del proyecto, se encargaron de presentar el proyecto y explicar el contenido de cada una de las siguientes sesiones. 

A continuación, se inició un debate abierto sobre la presencia de la Inteligencia Artificial y la Visión por Computador en nuestro día a día, así como sus usos y sus aplicaciones. El panel estuvo integrado por el Dr. Fernando Vilariño y Alexandra Canet, los estudiantes de doctorado del CVC Laura López y Marc Massana y Sigrid Vila, Bruno Moya y Oriol Baeza, tres estudiantes de Bachillerato que estuvieron recientemente de estancia en el CVC como parte de sus proyectos de investigación del instituto. Además, todos los miembros del público pudieron contribuir y detectar los diferentes retos que esta tecnología tiene que hacer frente en sus distintas áreas de experiencia.

ExperimentAI es una actividad recurrente que tiene lugar de forma semanal des del 7 de noviembre de 2018 hasta el 20 de febrero de 2019 en el Library Living Lab. Cada miércoles, se presentan nuevas experiencias, prototipos y actividades para entender el impacto de la Inteligencia Artificial y la Visión por Computador en el futuro y el presente de nuestra sociedad.

Más información, calendario de actividades y registro a las sesiones aquí: ExperimentAI

 

read more
CVC LabsCVC NewsEvents & CommunityExperimentAI

ExperimentAI kickoff session

On the 7th of November we had the official kick off to the ExperimentAI project, an initiative promoted and coordinated by the Computer Vision Center and funded by the Spanish Foundation for Science and Technology (FECYT) that brings Artificial Intelligence and Computer Vision closer to society.

The session started with an inaugural address by Joana Barbany, General Director of Digital Society at the Government of Catalonia and councillor of Sant Cugat del Vallès. It continued with an introduction of the project and the aims and objectives of all following sessions.

The introduction was then followed by an open on how Artificial Intelligence and Computer Vision are impacting our daily life, their uses and applications. The panel was composed by Dr. Fernando Vilariño, Associate CVC director, Alexandra Canet, CVC Communications Manager, CVC PhD students Laura López and Marc Masana, and last but not least, Sigrid Vila, Bruno Moya and Oriol Baeza. The last three are High School students who have spent a research stay at CVC as part of their Research School Projects.  In addition, all members of the public could contribute and thus detect the different challenges that this technology must face in their different areas of expertise.

ExperimentAI is a recurrent activity that will take place on a weekly basis from the 7th of November until the 20th of Februrary 2019 at the Library Living Lab. We will be presenting, every Wednesday, new experiences, prototypes and activities to understand the impact of AI and Computer Vision in our future and current society.

All information, calendar and registrations here: ExperimentAI website

read more