Detectando nuestra personalidad aparente con visión por computador

El pasado miércoles 23 de enero y, como cada miércoles des del 7/11/2018 hasta el 20/02/2019, regresamos al Library Living Lab con una nueva sesión de ExperimentAI, un proyecto organizado por el Centro de Visión por Computador y financiado por FECYT – Ministerio de Ciencia, Innovación y Universidades para acercar la ciencia y la tecnología a la ciudadanía. Esta vez, nos reunimos para mostrar como la Inteligencia Artificial puede detectar la personalidad aparente de una persona y cómo esta tecnología puede utilizarse en distintos ámbitos como, por ejemplo, en los Recursos Humanos.

La sesión consistió en 4 actividades – 3 para adultos y 1 para niños – partiendo, de este modo, a los asistentes en 4 grupos y rotando en cada ‘estación’ de cara a tener la oportunidad de escuchar de forma más personalizada cada una de las explicaciones y tener un trato más cercano con los investigadores. Esta dinámica de sesión ya la llevamos a cabo en pasadas sesiones del proyecto y su resultado ha sido muy satisfactorio, ya que permite a los asistentes establecer un diálogo muy interesante y enriquecedor con los investigadores.

En una de las estaciones, se encontraba el Dr. Sergio Escalera, investigador del Centro de Visión por Computador y de la Universidad de Barcelona e investigador principal del grupo Human Pose Recovery and Behavior Analysis (HuPBA), dedicado a investigar métodos computacionales capaces de identificar rasgos corporales y comportamientos personales en imágenes. El Dr. Escalera se encargó de hacer una presentación general sobre los análisis computacionales de la personalidad, un tema que ha llamado mucho la atención a la comunidad de la visión artificial y el Machine Learning en los últimos años.

El Dr. Sergio Escalera hablando sobre analizar la personalidad aparente mediante visión por computador

En otra estación, estaba el Dr. Xavier Baró, investigador de la Universitat Oberta de Barcelona, mostrando un conjunto de paneles informativos que explicaban de una forma muy ilustrativa el método con el que han entrenado el software y la base psicológica que hay detrás de esta tecnología. El método parte de la teoría psicológica OCEAN, también conocido como The Big Five o Five-Factor Model. Este método evalúa y analiza la composición de cinco dimensiones de la personalidad humana: abertura a la experiencia, responsabilidad, extraversión amabilidad e inestabilidad emocional.

El Dr. Xavier Baró explicando la teoría psicológica del Big Five

En la estación restante, había una demostración tecnológica en la que todos los participantes pudieron conocer los resultados de su personalidad aparente mediante un vídeo. En este caso, los usuarios tenían que hablar a cámara durante unos quince segundos y, después de procesar el vídeo, la máquina indicaba que porcentaje tenían de cada uno de los rasgos de personalidad que conforman el modelo OCEAN. De la explicación de la demostración se encargaron Coen Antens, responsable de la Unidad de Soporte Técnico del CVC, y Julio Jacques Jr., estudiante de doctorado del grupo HuPBA, con los que los participantes pudieron debatir sobre las concordancias entre las predicciones de la tecnología y sus propias opiniones.

En esta sesión, los niños también tuvieron su espacio para experimentar y descubrir el uso de la Inteligencia Artificial en el análisis del comportamiento humano. Ellos aprendieron cómo se detectan las emociones mediante visión por computador y vieron cómo funcionan los sistemas de reconocimiento facial de una forma lúdica y distendida. Finalmente, también pudieron probar la demostración tecnológica, haciendo distintos roles y actuando como si fueran distintos personajes para poner a prueba las predicciones de la máquina.

Dr. Maria Vanrell, winner of the CIARP Aurora Pons-Porrata Award 2018

CVC Researcher Dr. Maria Vanrell has received the CIARP Aurora Pons-Porrata Award in recognition of her professional trajectory. This international prize is given annually to a living woman in recognition of an outstanding scientific contribution to the field of pattern recognition, data mining and related areas.

Dr. Maria Vanrell is an Associate Professor of Artificial Intelligence in the Computer Science Department of the Autonomous University of Barcelona (UAB), as well as an affiliate researcher at the Computer Vision Centre, where she leads the Colour in Context Group. She received her PhD degree at the UAB in 1996 for her work on Computer Vision. Her research is done from a multidisciplinary point of view combining computer vision techniques, colour science methods and experimental psychology. Her main research interests have been in colour naming, induction, texture and segmentation and recently focusing how color is represented in deep networks. She teaches some courses on artificial intelligence and coordinates the Master in Computer Vision of UAB, UOC, UPC and UPF.

The award was given at the Iberoamerican Congress on Pattern Recognition 2018 that took place in Madrid (Spain) from 19th to 22nd November 2018.   

Conociendo el proyecto de escaneo 3D de los capiteles del Monasterio de Sant Cugat

El pasado miércoles 16 de enero volvimos al Library Living Lab con una nueva sesión del proyecto ExperimentAI, una iniciativa del Centro de Visión por Computador y financiada por FECYT – Ministerio de Ciencia, Innovación y Universidades que tiene el objetivo de acercar la Inteligencia Artificial y la Visión por Computador a la ciudadanía. Esta vez, descubrimos como la tecnología puede ayudar en otros ámbitos de conocimiento, como es el caso de la arquitectura, la historia y la cultura y lo vimos con el ejemplo de los Capiteles del Claustro del Monasterio de Sant Cugat.

En mayo de 2018, los usuarios del Library Living Lab junto con el Centro de Visión por Computador y el Museo de San Cugat, desarrollaron un innovador proyecto de participación ciudadana para escanear en 3D los capiteles del claustro del Monasterio de Sant Cugat, con el objetivo de elaborar el primer catálogo en 3D de estas obras de arte. Ahora, unos meses más tarde de todo este proceso, El Dr. Fernando Vilariño, director asociado del CVC y presidente de la Red Europea de Living Labs (ENoLL), presentó y explicó detalladamente el proyecto ante todos los participantes de la sesión de ExperimentAI y valoró los beneficios y posibilidades que tiene la digitalización del patrimonio cultural para la sociedad.

Durante la sesión, los asistentes pudieron conocer de primera mano cómo surgió el proyecto y como se llevó a cabo todo el proceso. Además, también aprendieron cómo funciona la técnica de la fotogrametría, utilizada para generar las impresiones 3D de los capiteles, y cómo se desarrolla el proceso de postproducción y edición de los modelos 3D.

Por otro lado, el Dr. Fernando Vilariño, mostró a los asistentes los modelos virtuales de los capiteles, que permiten observar los capiteles con todo lujo de detalle e, incluso, detectar ciertas particularidades que son imposibles de percibir cuando observas los capiteles físicos. No obstante, lo que más asombro al público fue, sin duda, saber que este catálogo interactivo está al alcance de todos y puede consultarse en cualquier momento y desde cualquier sitio.

La sesión también contó con una exposición de las piezas impresas en 3D a partir de las reproducciones de los modelos generados virtualmente. Con ellos, los participantes pudieron apreciar el valor histórico de estas maravillosas joyas del románico catalán datadas del siglo XII.  

Muestra de los capiteles del Monasterio de Sant Cugat en 3D

Para concluir la sesión, el señor Miquel Perelló, uno de los ciudadanos que participó en el proyecto de escaneo 3D de los capiteles el pasado mes de mayo, explicó cómo fue su experiencia y valoró muy positivamente su participación en este tipo de proyectos, recomendado a todos los presentes participar en futuras sesiones para poder ampliar el catálogo interactivo y tener el total de los 144 capiteles digitalizados.

El GPS del pulmón: imagen médica y salud conectada

La Visión por Computador está experimentando cada vez más impacto en ámbito médico y de la salud. Un ejemplo de sus múltiples aplicaciones en este campo es el GPS del pulmón, una tecnología desarrollada por investigadores del Centro de Visión por Computador y del Hospital de Bellvitge. En la sesión de ExperimentAI del pasado miércoles, pudimos conocer esta innovadors tecnología y ver cómo puede ayudar a los médicos en la detección precoz del cáncer de pulmón.

Después de un breve parón de vacaciones de Navidad, el miércoles 9 de enero regresamos al Library Living Lab con ExperimentAI, un proyecto impulsado por el Centro de Visión por Computador y con la colaboración y financiación de FECYT – Ministerio de Ciencia, Innovación y Universidades, que lleva la Visión por Computador y la Inteligencia Artificial a la biblioteca. Esta vez, la finalidad de la sesión era conocer cómo puede aplicarse la Inteligencia Artificial y, en concreto, la Visión por Computador en los hospitales i descubrir la más reciente innovación tecnológica en este ámbito.

La sesión fue llevada a cabo por los investigadores del grupo Interactive & Augmented Modelling (IAM) del Centro de Visión por Computador, un grupo de investigación que trabaja el desarrollo de herramientas matemáticas y entornos virtuales y de realidad aumentada para el procesamiento de imágenes biomédicas. Como en otras sesiones anteriores, los participantes pudieron dividirse en grupos reducidos para poder disfrutar de un trato más cercano con los investigadores y experimentar con tranquilidad la demostración tecnológica mostrada.

De este modo, los usuarios fueron pasando por cada una de las tres estaciones, descubriendo cómo la tecnología puede ayudar al diagnóstico médico y a la automatización de algunas tareas rutinarias y tediosas. En la primera estación, el Dr. Carles Sánchez presentó, de una forma muy general y didáctica, cómo se utiliza la visión por computador en medicina, así como otros proyectos que ha llevado a cabo este grupo de investigación en el sector médico.

En la siguiente parada, el estudiante de doctorado Esmitt Ramirez explicó, con la ayuda de unos paneles gráficos, en qué consiste exactamente el GPS del pulmón. Esta tecnología mejora los procedimientos de la broncoscopia mediante técnicas de visión por computador y realidad aumentada, que permiten realizar una réplica virtual exacta del pulmón del paciente. Esto permite a los médicos localizar de forma automática la lesión y moverse por dentro de los bronquios de los pacientes siguiendo una ruta planificada y localizada. De modo, los médicos pueden garantizar una intervención más rápida, fácil, eficaz y menos costosa en la obtención de las biopsias para la detección precoz de cáncer de pulmón. Esmitt Ramirez también explicó cómo se realiza la bronoscopia tradicional y los asistentes pudieron ver y trastear un broncoscopio real. De este modo, pudieron descubrir y comparar cómo cambia este procedimiento cuando se utiliza este soporte tecnológico.

En tercera estación, los participantes pudieron ver y probar la demostración tecnológica BronchoX, una herramienta open-source de exploración no invasiva para la planificación de la intervención y la navegación en posibles lesiones pulmonares, mientras escuchaban las explicaciones de la Dra. Debora Gil, investigadora principal del grupo IAM. En esta demostración, los usuarios pudieron ponerse en la piel de los médicos, navegado por unos pulmones virtuales y viendo cómo el sistema responde a nuestros comandos de voz y gestos para irnos guiando en nuestro recorrido por el árbol pulmonar hasta llegar a la lesión.

Esta actividad estaba enmarcada dentro de la serie ‘Mujeres y ciencia’ de ExperimentAI; que consiste en una serie de sesiones dedicadas a potenciar proyectos tecnológicos liderados por investigadoras. Al ser preguntados, los participantes comentaron que, a pesar de la complejidad de la temática, fue muy interesante y enriquecedor descubrir casos de uso de la tecnología en ámbitos tan relevantes e importantes para la sociedad como es la medicina.