close

ExperimentAI

CVC LabsEvents & CommunityExperimentAI

Detectando nuestra personalidad aparente con visión por computador

_DSC8053

El pasado miércoles 23 de enero y, como cada miércoles des del 7/11/2018 hasta el 20/02/2019, regresamos al Library Living Lab con una nueva sesión de ExperimentAI, un proyecto organizado por el Centro de Visión por Computador y financiado por FECYT – Ministerio de Ciencia, Innovación y Universidades para acercar la ciencia y la tecnología a la ciudadanía. Esta vez, nos reunimos para mostrar como la Inteligencia Artificial puede detectar la personalidad aparente de una persona y cómo esta tecnología puede utilizarse en distintos ámbitos como, por ejemplo, en los Recursos Humanos.

La sesión consistió en 4 actividades – 3 para adultos y 1 para niños – partiendo, de este modo, a los asistentes en 4 grupos y rotando en cada ‘estación’ de cara a tener la oportunidad de escuchar de forma más personalizada cada una de las explicaciones y tener un trato más cercano con los investigadores. Esta dinámica de sesión ya la llevamos a cabo en pasadas sesiones del proyecto y su resultado ha sido muy satisfactorio, ya que permite a los asistentes establecer un diálogo muy interesante y enriquecedor con los investigadores.

En una de las estaciones, se encontraba el Dr. Sergio Escalera, investigador del Centro de Visión por Computador y de la Universidad de Barcelona e investigador principal del grupo Human Pose Recovery and Behavior Analysis (HuPBA), dedicado a investigar métodos computacionales capaces de identificar rasgos corporales y comportamientos personales en imágenes. El Dr. Escalera se encargó de hacer una presentación general sobre los análisis computacionales de la personalidad, un tema que ha llamado mucho la atención a la comunidad de la visión artificial y el Machine Learning en los últimos años.

El Dr. Sergio Escalera hablando sobre analizar la personalidad aparente mediante visión por computador

En otra estación, estaba el Dr. Xavier Baró, investigador de la Universitat Oberta de Barcelona, mostrando un conjunto de paneles informativos que explicaban de una forma muy ilustrativa el método con el que han entrenado el software y la base psicológica que hay detrás de esta tecnología. El método parte de la teoría psicológica OCEAN, también conocido como The Big Five o Five-Factor Model. Este método evalúa y analiza la composición de cinco dimensiones de la personalidad humana: abertura a la experiencia, responsabilidad, extraversión amabilidad e inestabilidad emocional.

El Dr. Xavier Baró explicando la teoría psicológica del Big Five

En la estación restante, había una demostración tecnológica en la que todos los participantes pudieron conocer los resultados de su personalidad aparente mediante un vídeo. En este caso, los usuarios tenían que hablar a cámara durante unos quince segundos y, después de procesar el vídeo, la máquina indicaba que porcentaje tenían de cada uno de los rasgos de personalidad que conforman el modelo OCEAN. De la explicación de la demostración se encargaron Coen Antens, responsable de la Unidad de Soporte Técnico del CVC, y Julio Jacques Jr., estudiante de doctorado del grupo HuPBA, con los que los participantes pudieron debatir sobre las concordancias entre las predicciones de la tecnología y sus propias opiniones.

En esta sesión, los niños también tuvieron su espacio para experimentar y descubrir el uso de la Inteligencia Artificial en el análisis del comportamiento humano. Ellos aprendieron cómo se detectan las emociones mediante visión por computador y vieron cómo funcionan los sistemas de reconocimiento facial de una forma lúdica y distendida. Finalmente, también pudieron probar la demostración tecnológica, haciendo distintos roles y actuando como si fueran distintos personajes para poner a prueba las predicciones de la máquina.

read more
CVC LabsEvents & CommunityExperimentAI

Conociendo el proyecto de escaneo 3D de los capiteles del Monasterio de Sant Cugat

_DSC7940

El pasado miércoles 16 de enero volvimos al Library Living Lab con una nueva sesión del proyecto ExperimentAI, una iniciativa del Centro de Visión por Computador y financiada por FECYT – Ministerio de Ciencia, Innovación y Universidades que tiene el objetivo de acercar la Inteligencia Artificial y la Visión por Computador a la ciudadanía. Esta vez, descubrimos como la tecnología puede ayudar en otros ámbitos de conocimiento, como es el caso de la arquitectura, la historia y la cultura y lo vimos con el ejemplo de los Capiteles del Claustro del Monasterio de Sant Cugat.

En mayo de 2018, los usuarios del Library Living Lab junto con el Centro de Visión por Computador y el Museo de San Cugat, desarrollaron un innovador proyecto de participación ciudadana para escanear en 3D los capiteles del claustro del Monasterio de Sant Cugat, con el objetivo de elaborar el primer catálogo en 3D de estas obras de arte. Ahora, unos meses más tarde de todo este proceso, El Dr. Fernando Vilariño, director asociado del CVC y presidente de la Red Europea de Living Labs (ENoLL), presentó y explicó detalladamente el proyecto ante todos los participantes de la sesión de ExperimentAI y valoró los beneficios y posibilidades que tiene la digitalización del patrimonio cultural para la sociedad.

Durante la sesión, los asistentes pudieron conocer de primera mano cómo surgió el proyecto y como se llevó a cabo todo el proceso. Además, también aprendieron cómo funciona la técnica de la fotogrametría, utilizada para generar las impresiones 3D de los capiteles, y cómo se desarrolla el proceso de postproducción y edición de los modelos 3D.

Por otro lado, el Dr. Fernando Vilariño, mostró a los asistentes los modelos virtuales de los capiteles, que permiten observar los capiteles con todo lujo de detalle e, incluso, detectar ciertas particularidades que son imposibles de percibir cuando observas los capiteles físicos. No obstante, lo que más asombro al público fue, sin duda, saber que este catálogo interactivo está al alcance de todos y puede consultarse en cualquier momento y desde cualquier sitio.

La sesión también contó con una exposición de las piezas impresas en 3D a partir de las reproducciones de los modelos generados virtualmente. Con ellos, los participantes pudieron apreciar el valor histórico de estas maravillosas joyas del románico catalán datadas del siglo XII.  

Muestra de los capiteles del Monasterio de Sant Cugat en 3D

Para concluir la sesión, el señor Miquel Perelló, uno de los ciudadanos que participó en el proyecto de escaneo 3D de los capiteles el pasado mes de mayo, explicó cómo fue su experiencia y valoró muy positivamente su participación en este tipo de proyectos, recomendado a todos los presentes participar en futuras sesiones para poder ampliar el catálogo interactivo y tener el total de los 144 capiteles digitalizados.

read more
CVC LabsEvents & CommunityExperimentAI

El GPS del pulmón: imagen médica y salud conectada

_DSC7807

La Visión por Computador está experimentando cada vez más impacto en ámbito médico y de la salud. Un ejemplo de sus múltiples aplicaciones en este campo es el GPS del pulmón, una tecnología desarrollada por investigadores del Centro de Visión por Computador y del Hospital de Bellvitge. En la sesión de ExperimentAI del pasado miércoles, pudimos conocer esta innovadors tecnología y ver cómo puede ayudar a los médicos en la detección precoz del cáncer de pulmón.

Después de un breve parón de vacaciones de Navidad, el miércoles 9 de enero regresamos al Library Living Lab con ExperimentAI, un proyecto impulsado por el Centro de Visión por Computador y con la colaboración y financiación de FECYT – Ministerio de Ciencia, Innovación y Universidades, que lleva la Visión por Computador y la Inteligencia Artificial a la biblioteca. Esta vez, la finalidad de la sesión era conocer cómo puede aplicarse la Inteligencia Artificial y, en concreto, la Visión por Computador en los hospitales i descubrir la más reciente innovación tecnológica en este ámbito.

La sesión fue llevada a cabo por los investigadores del grupo Interactive & Augmented Modelling (IAM) del Centro de Visión por Computador, un grupo de investigación que trabaja el desarrollo de herramientas matemáticas y entornos virtuales y de realidad aumentada para el procesamiento de imágenes biomédicas. Como en otras sesiones anteriores, los participantes pudieron dividirse en grupos reducidos para poder disfrutar de un trato más cercano con los investigadores y experimentar con tranquilidad la demostración tecnológica mostrada.

De este modo, los usuarios fueron pasando por cada una de las tres estaciones, descubriendo cómo la tecnología puede ayudar al diagnóstico médico y a la automatización de algunas tareas rutinarias y tediosas. En la primera estación, el Dr. Carles Sánchez presentó, de una forma muy general y didáctica, cómo se utiliza la visión por computador en medicina, así como otros proyectos que ha llevado a cabo este grupo de investigación en el sector médico.

En la siguiente parada, el estudiante de doctorado Esmitt Ramirez explicó, con la ayuda de unos paneles gráficos, en qué consiste exactamente el GPS del pulmón. Esta tecnología mejora los procedimientos de la broncoscopia mediante técnicas de visión por computador y realidad aumentada, que permiten realizar una réplica virtual exacta del pulmón del paciente. Esto permite a los médicos localizar de forma automática la lesión y moverse por dentro de los bronquios de los pacientes siguiendo una ruta planificada y localizada. De modo, los médicos pueden garantizar una intervención más rápida, fácil, eficaz y menos costosa en la obtención de las biopsias para la detección precoz de cáncer de pulmón. Esmitt Ramirez también explicó cómo se realiza la bronoscopia tradicional y los asistentes pudieron ver y trastear un broncoscopio real. De este modo, pudieron descubrir y comparar cómo cambia este procedimiento cuando se utiliza este soporte tecnológico.

En tercera estación, los participantes pudieron ver y probar la demostración tecnológica BronchoX, una herramienta open-source de exploración no invasiva para la planificación de la intervención y la navegación en posibles lesiones pulmonares, mientras escuchaban las explicaciones de la Dra. Debora Gil, investigadora principal del grupo IAM. En esta demostración, los usuarios pudieron ponerse en la piel de los médicos, navegado por unos pulmones virtuales y viendo cómo el sistema responde a nuestros comandos de voz y gestos para irnos guiando en nuestro recorrido por el árbol pulmonar hasta llegar a la lesión.

Esta actividad estaba enmarcada dentro de la serie ‘Mujeres y ciencia’ de ExperimentAI; que consiste en una serie de sesiones dedicadas a potenciar proyectos tecnológicos liderados por investigadoras. Al ser preguntados, los participantes comentaron que, a pesar de la complejidad de la temática, fue muy interesante y enriquecedor descubrir casos de uso de la tecnología en ámbitos tan relevantes e importantes para la sociedad como es la medicina.

read more
CVC LabsEvents & CommunityExperimentAI

Patrones biométricos: cómo saber la edad y el género con IA

_DSC7695

Como cada miércoles de noviembre a febrero, finalizamos el año en el Library Living Lab de la Biblioteca Miquel Batllori de Volpelleres, Sant Cugat, para experimentar la tecnología con el proyecto ExperimentAI. En esta ocasión, los participantes de ExperimentAI descubrieron el concepto de patrones biométricos mediante una demostración tecnológica que utiliza visión por computador para predecir la edad y el género de las personas.

ExperimentAI es un proyecto impulsado por el Centro de Visión por Computador con la financiación de FECYT – Ministerio de Ciencia Innovación y Universidades que consta de un total de 15 sesiones interactivas para impulsar la alfabetización en el ámbito de la Inteligencia Artificial y la Visión por Computador y fomentar la participación ciudadana en los procesos de ciencia e innovación. El proyecto cuenta siempre con demostraciones, talleres y actividades que demuestran los resultados de proyectos de investigación más innovadores.

En esta sesión, el Dr. Jordi González, investigador del CVC y profesor de la Escuela de Ingeniería de la UAB, llevó a cabo una presentación sobre el impacto de la Inteligencia Artificial en las redes sociales. Esta explicación, sin duda, generó un ambiente de diálogo y reflexión muy interesante para los asistentes, ya que se trataron temas muy variados y de rigurosa actualidad como la protección a la intimidad, la detección emocional en las redes sociales, el uso del big data en marketing o el aumento de las fake news.

Al otro lado del laboratorio, se encontraba la demostración tecnológica, lista para experimentar y poner a prueba. Como ya hemos visto en las sesiones anteriores, esta acostumbra a ser la parte que más expectativas genera y, esta vez, no fue menos: todos los participantes quisieron ponerse en frente de la cámara para ver si el ordenador era capaz de adivinar sus edades reales.

Presentando la demostración estaba Pau Rodríguez, estudiante de doctorado del CVC, que explicó de una forma muy didáctica y discernida la tecnología que hay detrás de ella y cómo había estado entrenada para poder predecir la edad y el género de cualquier persona. También explicó, con la ayuda de unos paneles ilustrativos, las diferencias entre los patrones de juventud y los patrones de vejez que permiten observar los cambios fisiológicos asociados a la edad.

Pau Rodriguez explicando la tecnología que detecta nuestra edad y género

La diversión también estaba asegurada para los niños. Esta vez, la responsable de comunicación del CVC y organizadora del proyecto ExperimentAI, Alexandra Canet, realizó un taller infantil para que los más pequeños también pudieran comprender e interiorizar de forma lúdica y participativa el concepto de patrones biométricos y su uso en ámbitos como el reconocimiento facial de nuestros smartphones. Posteriormente, los niños pasaron a testear la demostración tecnológica y se lo pasaron en grande poniéndose pelucas, bigotes, gafas y todo tipo de complementos para tratar de engañar a la máquina en la predicción de edad y género.

Los niños utilizaron pegatinas y midieron las diferentes partes de sus rostros para comprender el concepto de patrones biométricos

La sesión ya estaba a punto de terminar y, para poner el broche final a esa tarde tan fructífera, los investigadores explicaron a niños y a adultos el concepto de Red Neuronal Computacional mediante un metafórico juego de cajas que simulaban las distintas capas de una red neuronal. Dentro de cada caja, se encontraba un objeto que representaba la característica en la que la capa de la red neuronal se fija para adivinar lo que está viendo. De este modo, teniendo un objeto de entrada y uno de salida – en este caso, un león –, los participantes tenían que ir abriendo las cajas una a una para comprender en qué se fija cada capa de una red neuronal.

La metáfora de la Red Neuronal Computacional

Las reacciones de los participantes en esta sesión fueron muy positivas y, al ser preguntados, afirmaron que es un lujo poder contar con la presencia de investigadores que expliquen de una forma tan clara y amena el trabajo que se está llevando a cabo en los centros de investigación. Con esta sesión, llegamos al ecuador del proyecto ExperimentAI en el cual, hasta el momento, un total de 14 investigadores y 140 participantes ya han visitado el Library Living Lab para experimentar la más reciente innovación en el ámbito de la Inteligencia Artificial.

 

read more
CVC LabsEvents & CommunityExperimentAI

Compitiendo contra la Inteligencia Artificial del coche autónomo

DuO-J47WwAY0QsN

El pasado 12 de diciembre, y como cada miércoles hasta el 20/02/19, volvimos al Library Living Lab de mano del proyecto ExperimentAI, proyecto financiado por FECYT – Ministerio de Ciencia, Innovación y Universidades y organizado por el Centro de Visión por Computador, para mostrar a los asistentes cómo la Inteligencia Artificial de los coches autónomos es entrenada, con una actividad realmente espectacular: competir contra el coche autónomo dentro del mundo virtual desarrollado por el CVC: CARLA. 

Una demostración ambiciosa, pero que valió la pena. Con la sesión número 7 de ExperimentAI, ya son 130 personas las que han pasado, en un mes, por el Library Living Lab para conocer, de primer mano, la investigación que se realiza en España en visión por Computador e Inteligencia Artificial aplicada a cinco ámbitos muy concretos. En esta séptima sesión, volvimos a hablar de movilidad autónoma, pero con una puesta en escena diferentes y mucho más atractiva: la posibilidad de competir contra el coche autónomo y su inteligencia. También variamos el público, permitiendo que los más pequeños disfrutaran de una tarde tecnológica aprendiendo conceptos de investigación puntera en movilidad autónoma.

Nuestro doctorando, Felipe Codevilla, y nuestro técnico de apoyo, Marc Castelló, se situaron estratégicamente al lado de la demostración, para ir explicando a grandes y pequeños el funcionamiento de una carrera y qué era exactamente lo que estaban viviendo. La frase más repetida fue “esto no es un videojuego, es un simulador de código abierto de investigación“, y a partir de ahí, realizaban la explicación, mientras los participantes competían por dentro del mundo virtual contra la Inteligencia Artificial.

Uno de los más pequeños probando su destreza ante la Inteligencia Artificial del coche

Por otro lado, contamos con una explicación más teórica de los conceptos de anotación, ground truth y simulación por parte de otro miembro del equipo de investigación en movilidad autónoma, Marc García. Apoyado por los paneles explicativos, inició un debate con niños adultos sobre la importancia de la investigación dentro de este ámbito y la revolución que supone hacer uso de mundos virtuales.

 

Néstor Subiron, físico y programador, pilar del equipo de programadores de CARLA, volvió al Library Living Lab con su demostración, tal como hizo ya el 28/11/18, de cara a mostrar al público las funcionalidades internas del simulador, las diferentes capas con las que cuenta para poder entrenar al coche de forma efectiva, y dio la posibilidad a los asistentes de navegar, de forma autónoma, por dentro del mundo virtual, probando sensores, modificando características y emulando escenarios de entrenamiento. Todo ello, acompañado de preguntas e inquietudes que los participantes iban formulando, y el investigador iba respondiendo, entrando así en un debate altamente interesante sobre las posibilidades de toda esta tecnología.

Por último, el Dr. Antonio M. López, IP del proyecto, aprovechó para explicar su último proyecto, Vision Zero, un proyecto de ámbito internacional, desarrollado conjuntamente con Unity y otros partners globales, en el cual se pretende dar respuesta a través de medios de simulación a intersecciones de tráfico altamente conflictivas y congestionadas en diferentes ciudades del mundo.

El Dr. Antonio M. López, IP del proyecto, explica la iniciativa Vision Zero

Tuvimos asistentes de todas las edades. Los más pequeños disfrutaron con el juego del simulador, a la vez que los investigadores les explicaban que aquello no era un videojuego, sino un entorno virtual para hacer investigación. Las reacciones fueron realmente positivas, y los debates y diálogos que surgieron, como lo hacen siempre en estas sesiones, verdaderamente enriquecedores.

read more
1 2 3 4
Page 2 of 4