close

ExperimentAI

Events & CommunityExperimentAI

246 usuarios y 41 profesionales han participado en ExperimentAI, el proyecto financiado por FECYT que ha llevado la Inteligencia Artificial al Library Living Lab

_DSC8300
  • El proyecto, impulsado por el Centro de Visión por Computador de la Universidad Autónoma de Barcelona (CVC-UAB) y financiado por la Fundación Española para la Ciencia y Tecnología (FECYT) – Ministerio de Ciencia, Innovación y Universidades, nació con el objetivo de impulsar el Library Living Lab como un laboratorio de experimentación ciudadana fuertemente ligado a la Inteligencia Artificial, y en concreto, la Visión por Computador.
  • Durante los 4 meses que ha durado el proyecto, un total de 246 participantes han formado parte de las distintas sesiones interactivas para conocer los fundamentos de la Inteligencia Artificial y el estado de la investigación más pionera en este campo.

El pasado miércoles 20 de febrero se llevó a cabo la última sesión de ExperimentAI con una sesión sobre movilidad autónoma en coches y drones que puso el broche final a un innovador proyecto que ha acercado la Inteligencia Artificial y, en concreto, la Visión por Computador, a la ciudadanía y que ha contado con la asistencia de 246 usuarios y con la participación de 26 investigadores y 15 técnicos del sector.

El proyecto se ha desarrollado todos los miércoles des del 7 de noviembre de 2018 hasta el 20 de febrero de 2019 en el Library Living Lab de la biblioteca de Miquel Batllori de Volpelleres, Sant Cugat del Vallès, un espacio abierto a la experimentación ciudadana, en el que se explora como la tecnología transforma la experiencia vital de la gente y donde se puede descubrir y participar en el co-diseño de nuestra sociedad.

A lo largo de estos cuatro meses de desarrollo del proyecto, se han realizado un total de 15 sesiones interactivas que han permitido a un público general y no especializado, conocer los principales conceptos que conforman la base de estudio de los algoritmos inteligentes mediante demostraciones tecnológicas, talleres y todo tipo de actividades lúdicas y participativas. Las distintas sesiones se han encuadrado en las áreas de estudio identificadas por el Centro de Visión por Computador de la Inteligencia Artificial: Movilidad Autónoma, Humanidades Digitales, Salud Conectada, Marketing y Redes Sociales y Educación y mundo laboral.

En las distintas sesiones, los participantes han podido realizar actividades como competir contra el coche autónomo en una carrera por un mundo virtual, probar un videojuego que ayuda al aprendizaje de matemáticas y estrategia, conocer cómo los ordenadores pueden aprender a leer partituras y manuscritos, descubrir cuál es su personalidad aparente según la Inteligencia Artificial y navegar por un pulmón virtual usado una tecnología para la detección precoz del cáncer de pulmón. Todo esto mientras interiorizaban conceptos como Deep Learning, Machine Learning, Redes Neuronales, imagen médica o patrones biométricos, mediante las explicaciones de investigadores referentes en cada campo.   

ExperimentAI ha cumplido con los objetivos de contribuir a la democratización del acceso universal al conocimiento e innovación para todas las personas, impulsar la alfabetización en el ámbito de la Inteligencia Artificial, fomentar la participación ciudadana, despertar vocaciones científicas y resaltar la calidad y la importancia de la investigación nacional.

read more
CVC LabsEvents & CommunityExperimentAI

Sesión final del proyecto ExperimentAI: movilidad autónoma en coches y drones

_DSC8300

El miércoles 20 de febrero se celebró la última sesión del proyecto ExperimentAI y, para poner broche final a esta iniciativa que nos ha traído cada miércoles la Inteligencia Artificial a la biblioteca, hablamos de uno de los grandes retos que deberá afrontar la sociedad en los próximos años: la movilidad autónoma.

ExperimentAI es un proyecto impulsado por el Centro de Visión por Computador y financiado por FECYT – Ministerio de Ciencia, Innovación y Universidades que, como se ha comentado en crónicas anteriores, tiene la finalidad de acercar la investigación puntera en Inteligencia Artificial y Visión por Computador a la ciudadanía. El proyecto ha estado formado por un total de 15 sesiones interactivas y participativas destinadas a un público amplio y no especializado que se han realizado todos miércoles des del 7 de noviembre de 2018 hasta el 20 de febrero de 2019 en el Library Living Lab de la Biblioteca Miquel Batllori de Volpelleres, Sant Cugat.

En la sesión del 20 de febrero, los participantes pudieron descubrir las novedades en materia de conducción autónoma de la mano del Dr. Antonio López, investigador principal de movilidad autónoma en el Centro de Visión por Computador y profesor de la Escuela de Ingeniería de la UAB. El Dr. López, explicó a los asistentes los avances más recientes en la investigación del coche autónomo y el uso de simuladores para enseñarlos a conducir. Uno de estos simuladores es CARLA, un mundo virtual de código abierto desarrollado por el CVC, Intel y Toyota, que ya conocimos profundamente en la sesión de ExperimentAI del día 28 de noviembre “CARLA: la matrix que entrena a los coches autónomos”.

El Dr. Antonio López hablando de conducción autónoma

Los asistentes pudieron probar una demostración tecnológica con la que experimentaron, según el Dr. Antonio López, los cuatro aspectos clave de la movilidad autónoma: la Inteligencia Artificial, los distintos paradigmas para entrenarla, la simulación y cómo llevar el entrenamiento al mundo físico. De este modo, la demostración consistía en competir contra la Inteligencia Artificial dentro del mundo virtual de CARLA e intentar llegar a la meta antes que ella respetando las normas de seguridad vial. Esta Inteligencia Artificial estaba ubicada en un prototipo de coche de juguete, que iba moviendo sus ruedas conforme los movimientos que realizaba dentro del mundo virtual.

Adultos y, sobre todo, niños, estuvieron probando y retando a la Inteligencia Artificial por el mundo de CARLA durante toda la tarde, asombrados al ver como, lo que a simple vista parece un videojuego para el entretenimiento, es en realidad una de las tecnologías más punteras a nivel mundial para la investigación de los vehículos inteligentes.

Sin embargo, esta última sesión no solo estuvo relacionada con los vehículos de cuatro ruedas, sino que también se hizo especial hincapié en la investigación que se está llevando a cabo en el Centro de Visión por Computador en materia de drones. En este punto, el Dr. Fernando Vilariño, subdirector del Centro de Visión por Computador y director de la European Network of Living Labs (ENoLL), realizó una presentación para explicar cómo se estos vehículos aéreos sin tripulación utilizan visión por computador para la asistencia a los bomberos en la gestión de emergencias y para la monitorización de campos de cultivo.

Y con esta interesante sesión ponemos punto final a ExperimentAI, un proyecto que ha resultado ser muy gratificante y enriquecedor y que ha sido posible gracias a la colaboración y esfuerzo de más de 35 investigadores y profesionales del Centro de Visión por Computador. Solo nos queda agradecer a la Fundación Española para la Ciencia y la Tecnología – Ministerio de Ciencia, Innovación y Universidades por su soporte y a los partners del Library Living Lab – Asociación de Vecinos del barrio de Volpelleres, Universidad Autónoma de Barcelona, Ayuntamiento de Sant Cugat y Diputación de Barcelona – por su colaboración. Por supuesto, también agradecer a todos usuarios que han participado en las sesiones de ExperimentAI durante estos cuatro meses, ya sea de forma asidua o puntual. ¡Esperamos que hayáis disfrutado tanto de las experiencias como nosotros!

Nos despedimos de ExperimentAI pero no por mucho; esperamos poder volver en próximas ediciones, con nuevas experiencias, nuevas actividades y nuevas tecnologías. ¡Hasta pronto!


read more
CVC LabsEvents & CommunityExperimentAI

Cómo un videojuego puede ayudar al aprendizaje de estrategia y matemáticas

_DSC8223

Los videojuegos comerciales no son sólo una forma de ocio y entretenimiento. Detrás de algunos de ellos, existen grandes oportunidades para el aprendizaje, la formación y la adquisición de conocimientos en muchos campos diferentes. En la penúltima sesión del proyecto ExperimentAI, llevada a cabo el del 13 de febrero de 2019 en el Library Living Lab, descubrimos un videojuego que ofrece, en concreto, grandes oportunidades para el aprendizaje de las matemáticas.

Como cada miércoles, des de los últimos 4 meses, volvimos al Library Living Lab de la biblioteca Miquel Batllori de Volpelleres (Sant Cugat del Vallès) para experimentar la Inteligencia Artificial con el proyecto ExperimentAI. ExperimentAI es una iniciativa del Centro de Visión por Computador, con la colaboración y financiación de FECYT- Ministerio de Ciencia, Innovación y Universidades, que tiene el objetivo de acercar a la ciudadanía la investigación más innovadora en Inteligencia Artificial mediante un conjunto de sesiones interactivas y dinámicas.

En esta sesión, dirigida a todos los públicos, quisimos hablar de videojuegos y, en concreto, demostrar cómo algunos de ellos, a parte de ser fuente de horas y horas de entretenimiento, también pueden convertirse en potentes herramientas para la obtención de competencias y habilidades. La Dra. Aura Hernández, investigadora del Centro de Visión por Computador y profesora de la Escuela de Ingeniería de la Universidad Autónoma de Barcelona explicó el beneficio de distintos videojuegos comerciales y cómo estos pueden aplicarse a las aulas.

Además, la Dra. Hernández habló del videojuego Vector Tower Defense de Candystand, un videojuego que ofrece oportunidades de aprendizaje de matemáticas y estrategia y que los participantes de la sesión pudieron probar a tiempo real. El objetivo de este juego es defender un camino por el que circulan nuestros enemigos, llamados vectoids, y prohibir que lleguen al final atacándolos mediante un sistema de torres y bonificaciones que nos permiten poner a prueba nuestras habilidades estratégicas y de cálculo. De este modo, durante la partida, nos vamos encontrando con una serie de problemas matemáticos que deben ser resueltos de forma ágil para poder pasar de nivel.

Los más pequeños estuvieron probando el juego durante toda sesión y fue muy curioso ver cómo trabajaban en equipo para pensar la mejor estrategia que les permitiera ganar el mayor número de puntos. Sin embargo, no se trata de un videojuego solo para niños; los adultos también lo probaron y estuvieron de acuerdo en la agilidad mental que se requiere para poder ir superando los distintos niveles de dificultad.

Además, incorporar este tipo de videojuegos a las aulas no solo puede ser enriquecedor y significante para los alumnos, sino que también puede suponer un valor añadido para profesores, pedagogos e investigadores. Mediante la tecnología del Eye Tracking, se puede hacer un seguimiento del comportamiento ocular de los jugadores para extraer información sobre cómo aprendemos y cómo desarrollamos la estrategia matemática para resolver un juego, tal como lo estuvo enseñando la Dra. Aura Hernández a los participantes de la sesión.

Esta actividad estaba enmarcada dentro de la serie “Mujeres y Ciencia” del proyecto experimentAI. Esta serie de sesiones están dedicadas a potenciar y promover proyectos tecnológicos impulsados por mujeres investigadoras.

read more
CVC LabsEvents & CommunityExperimentAI

Percepción Visual: los juegos visuales del ojo con el cerebro

_DSC8135

El estudio de la percepción visual es clave para comprender la visión artificial. En la sesión de ExperimentAI del miércoles 6 de febrero en el Library Living Lab, descubrimos su importancia y pudimos comprobar como nuestro cerebro nos engaña delante de ciertos estímulos visuales, de la mano de los investigadores del NeuroComputation and Biological Vision Team (NeuroBIT) del Centro de Visión por Computador.

ExperimentAI es un proyecto organizado por el Centro de Visión por Computador y financiado por FECYT – Ministerio de Ciencia, Innovación y Universidades, que se celebra todos los miércoles des del 07/11/18 hasta el 20/03/19 en el Library Living Lab de la Biblioteca Miquel Batllori de Volpelleres. Esta iniciativa tiene la intención de acercar, siempre de una forma lúdica y didáctica, la ciencia a un público amplio y no especializado para que puedan conocer de primera mano la investigación que se está gestando en las universidades y conversar de forma directa con los investigadores que la están llevando a cabo.

En la sesión del 6 de febrero, pensada para el público general, tanto adultos como niños pudieron conocer con lujo de detalles la investigación llevada a cabo por el grupo NeuroBIT en el Centro de Visión por Computador. Para que la sesión fuera más fluida e interactiva, los participantes se dividieron en grupos más reducidos para poder ir rotando por las diferentes explicaciones y talleres que fueron planteados.  

Centrándonos en el itinerario de los adultos, en primer lugar, empezaron la sesión con una presentación muy didáctica sobre la percepción visual por el Dr. Xavier Otazu, con la explicación de conceptos como visual saliency, visual discomfort o chromatic and brightness induction, seguramente muy desconocidos hasta el momento por los participantes, pero de relevante importancia en la investigación de la visión por computador.

Estos conceptos pudieron verse, a continuación, aplicados en distintos ejemplos plasmados en los paneles gráficos que explicó el Dr. Alejandro Párraga. Seguramente todo el mundo recuerda el vestido que se volvió viral en 2015 por dividir las redes sociales entre aquellos que lo veían de color azul y negro y los que lo apreciaban blanco y dorado. Pues bien, este fenómeno tiene una explicación de percepción visual y fue expuesta por el Dr. Párraga, juntamente con otras ilusiones ópticas como el Efecto Acuarela, en el que un área blanca adquiere un tinte pálido del color que la rodea; el Tilt Effect – o efecto de inclinación – mediante el que líneas que son totalmente rectas y paralelas parece que estén curvadas por la disposición de los cuadros y por el contraste de blanco y negro; o el Color Induction – o inducción al color – con el que vemos como un mismo color se percibe de distintas maneras según los elementos que tiene a su alrededor.

Los usuarios quedaron incrédulos al ver cómo respondía su cerebro respondía de forma errónea delante de todos estos experimentos ópticos y quedaron totalmente sorprendidos al descubrir las explicaciones científicas del Dr. Párraga, que les daban un sentido lógico a estos experimentos.

En esta sesión también descubrimos el Eye Tracking, una tecnología que extrae información del usuario a partir del análisis de sus movimientos oculares. El estudiante de doctorado David Berga, se encargó de explicar sus características a los participantes y proponer distintos experimentos para que pudieran entender cómo funciona esta tecnología y las posibilidades que abarca.

Esta sesión también despertó mucho la curiosidad de los más pequeños, que se lo pasaron en grande probando y descubriendo toda clase de ilusiones ópticas y participando en los distintos experimentos de la demostración del Eye Tracking. Las explicaciones a los niños las llevaron a cabo el estudiante de doctorado Xim Cerdà-Company y la estudiante de Máster en Visión por Computador Nilai Sallent, que supieron adaptar a la perfección las explicaciones técnicas al vocabulario y a las capacidades de los infantes. Además, los niños también pudieron realizar dos test muy conocidos en el diagnóstico de daltonismo: el test Ishihara, que consiste en detectar qué número aparece en un fondo lleno de pequeñas esferas de colores; y el test Farnsworth, que consiste en ordenar una serie de fichas de color formando una transición gradual.

read more
CVC LabsEvents & CommunityExperimentAI

Cómo detectamos el cáncer de colon con imagen médica

_DSC8114

La Visión por Computador se está aplicando cada vez más en el ámbito de la salud, dando lugar a herramientas de asistencia a los médicos en el diagnóstico, la planificación y la intervención médica. Un ejemplo es la tecnología para la detección precoz del cáncer de colon desarrollada por investigadores del Centro de Visión por Computador y la Unidad de Endoscopia Digestiva del Hospital Clínic de Barcelona, que descubrimos en la sesión de ExperimentAI del 30 de enero en el Library Living Lab de la Biblioteca Miquel Batllori de Volpelleres, Sant Cugat.

ExperimentAI es un proyecto impulsado por el Centro de Visión por Computador y financiado por FECYT – Ministerio de Ciencia, Innovación y Universidades, para experimentar de primera mano la investigación pionera en temas de Inteligencia Artificial y Visión por Computador. Está formado por un conjunto de 15 sesiones que permiten, a un público amplio y no especializado, ir desgranando los conceptos que conforman la lógica y la base del estudio de los algoritmos inteligentes en distintos ámbitos mediante demostraciones interactivas, talleres y otras actividades didácticas y participativas.

En la sesión del 30 de enero, pudimos ver cómo la Inteligencia Artificial se está introduciendo a los hospitales para actuar como aliada de los médicos en el diagnóstico de enfermedades como, en este caso, el cáncer de colon. Lo descubrimos de la mano del Dr. Jorge Bernal, investigador del Centro de Visión por Computador y profesor de la Escuela de Ingeniería de la Universidad Autónoma de Barcelona, que realizó una presentación muy didáctica y estuvo al alcance de los asistentes para contestar todas las dudas y aportaciones.

Según el Dr. Bernal, el diagnóstico de cáncer de colon se lleva a cabo a partir de la identificación de su lesión precursora: el pólipo. Los pólipos, en su etapa inicial, no son cancerígenos pero su malignidad puede ir evolucionando con el tiempo. Por este motivo, una detección precoz de la lesión es crucial para garantizar la salud del paciente.

Actualmente, la técnica más utilizada para la localización de pólipos es la colonoscopia, pero, desafortunadamente, no siempre es capaz de detectar todos los pólipos durante las exploraciones. Para mejorar esto, investigadores del CVC han trabajado conjuntamente con la Unidad de Endoscopia Digestiva del Hospital Clínic de Barcelona en el desarrollo de sistemas de visualización avanzados para identificar mejor las lesiones y caracterizar de forma automática de la superfície de los pólipos para determinar su grado de malignidad.

El Dr. Jorge Bernal hablando sobre detección y localización de pólipos

En el Library Living Lab pudimos comprender y experimentar esta tecnología mediante una demostración que nos retaba a identificar un pólipo para descubrir su grado de malignidad. La demostración fue explicada por el propio Dr. Bernal y por Yael Tudela, estudiante de la escuela de ingeniería que ha estado trabajando en la elaboración de esta demostración. Además, tuvimos la suerte de contar con la presencia de parte del equipo del Hospital Clínic que aportaron sus conocimientos y contaron su experiencia con estos sistemas de soporte al personal clínico.

Usuario probando la demostración tecnológica de clasificación de pólipos
Yael Tudela explicando el funcionamiento de la demostración tecnológica para la clasificación de pólipos
read more
CVC LabsEvents & CommunityExperimentAI

Detectando nuestra personalidad aparente con visión por computador

_DSC8053

El pasado miércoles 23 de enero y, como cada miércoles des del 7/11/2018 hasta el 20/02/2019, regresamos al Library Living Lab con una nueva sesión de ExperimentAI, un proyecto organizado por el Centro de Visión por Computador y financiado por FECYT – Ministerio de Ciencia, Innovación y Universidades para acercar la ciencia y la tecnología a la ciudadanía. Esta vez, nos reunimos para mostrar como la Inteligencia Artificial puede detectar la personalidad aparente de una persona y cómo esta tecnología puede utilizarse en distintos ámbitos como, por ejemplo, en los Recursos Humanos.

La sesión consistió en 4 actividades – 3 para adultos y 1 para niños – partiendo, de este modo, a los asistentes en 4 grupos y rotando en cada ‘estación’ de cara a tener la oportunidad de escuchar de forma más personalizada cada una de las explicaciones y tener un trato más cercano con los investigadores. Esta dinámica de sesión ya la llevamos a cabo en pasadas sesiones del proyecto y su resultado ha sido muy satisfactorio, ya que permite a los asistentes establecer un diálogo muy interesante y enriquecedor con los investigadores.

En una de las estaciones, se encontraba el Dr. Sergio Escalera, investigador del Centro de Visión por Computador y de la Universidad de Barcelona e investigador principal del grupo Human Pose Recovery and Behavior Analysis (HuPBA), dedicado a investigar métodos computacionales capaces de identificar rasgos corporales y comportamientos personales en imágenes. El Dr. Escalera se encargó de hacer una presentación general sobre los análisis computacionales de la personalidad, un tema que ha llamado mucho la atención a la comunidad de la visión artificial y el Machine Learning en los últimos años.

El Dr. Sergio Escalera hablando sobre analizar la personalidad aparente mediante visión por computador

En otra estación, estaba el Dr. Xavier Baró, investigador de la Universitat Oberta de Barcelona, mostrando un conjunto de paneles informativos que explicaban de una forma muy ilustrativa el método con el que han entrenado el software y la base psicológica que hay detrás de esta tecnología. El método parte de la teoría psicológica OCEAN, también conocido como The Big Five o Five-Factor Model. Este método evalúa y analiza la composición de cinco dimensiones de la personalidad humana: abertura a la experiencia, responsabilidad, extraversión amabilidad e inestabilidad emocional.

El Dr. Xavier Baró explicando la teoría psicológica del Big Five

En la estación restante, había una demostración tecnológica en la que todos los participantes pudieron conocer los resultados de su personalidad aparente mediante un vídeo. En este caso, los usuarios tenían que hablar a cámara durante unos quince segundos y, después de procesar el vídeo, la máquina indicaba que porcentaje tenían de cada uno de los rasgos de personalidad que conforman el modelo OCEAN. De la explicación de la demostración se encargaron Coen Antens, responsable de la Unidad de Soporte Técnico del CVC, y Julio Jacques Jr., estudiante de doctorado del grupo HuPBA, con los que los participantes pudieron debatir sobre las concordancias entre las predicciones de la tecnología y sus propias opiniones.

En esta sesión, los niños también tuvieron su espacio para experimentar y descubrir el uso de la Inteligencia Artificial en el análisis del comportamiento humano. Ellos aprendieron cómo se detectan las emociones mediante visión por computador y vieron cómo funcionan los sistemas de reconocimiento facial de una forma lúdica y distendida. Finalmente, también pudieron probar la demostración tecnológica, haciendo distintos roles y actuando como si fueran distintos personajes para poner a prueba las predicciones de la máquina.

read more
CVC LabsEvents & CommunityExperimentAI

Conociendo el proyecto de escaneo 3D de los capiteles del Monasterio de Sant Cugat

_DSC7940

El pasado miércoles 16 de enero volvimos al Library Living Lab con una nueva sesión del proyecto ExperimentAI, una iniciativa del Centro de Visión por Computador y financiada por FECYT – Ministerio de Ciencia, Innovación y Universidades que tiene el objetivo de acercar la Inteligencia Artificial y la Visión por Computador a la ciudadanía. Esta vez, descubrimos como la tecnología puede ayudar en otros ámbitos de conocimiento, como es el caso de la arquitectura, la historia y la cultura y lo vimos con el ejemplo de los Capiteles del Claustro del Monasterio de Sant Cugat.

En mayo de 2018, los usuarios del Library Living Lab junto con el Centro de Visión por Computador y el Museo de San Cugat, desarrollaron un innovador proyecto de participación ciudadana para escanear en 3D los capiteles del claustro del Monasterio de Sant Cugat, con el objetivo de elaborar el primer catálogo en 3D de estas obras de arte. Ahora, unos meses más tarde de todo este proceso, El Dr. Fernando Vilariño, director asociado del CVC y presidente de la Red Europea de Living Labs (ENoLL), presentó y explicó detalladamente el proyecto ante todos los participantes de la sesión de ExperimentAI y valoró los beneficios y posibilidades que tiene la digitalización del patrimonio cultural para la sociedad.

Durante la sesión, los asistentes pudieron conocer de primera mano cómo surgió el proyecto y como se llevó a cabo todo el proceso. Además, también aprendieron cómo funciona la técnica de la fotogrametría, utilizada para generar las impresiones 3D de los capiteles, y cómo se desarrolla el proceso de postproducción y edición de los modelos 3D.

Por otro lado, el Dr. Fernando Vilariño, mostró a los asistentes los modelos virtuales de los capiteles, que permiten observar los capiteles con todo lujo de detalle e, incluso, detectar ciertas particularidades que son imposibles de percibir cuando observas los capiteles físicos. No obstante, lo que más asombro al público fue, sin duda, saber que este catálogo interactivo está al alcance de todos y puede consultarse en cualquier momento y desde cualquier sitio.

La sesión también contó con una exposición de las piezas impresas en 3D a partir de las reproducciones de los modelos generados virtualmente. Con ellos, los participantes pudieron apreciar el valor histórico de estas maravillosas joyas del románico catalán datadas del siglo XII.  

Muestra de los capiteles del Monasterio de Sant Cugat en 3D

Para concluir la sesión, el señor Miquel Perelló, uno de los ciudadanos que participó en el proyecto de escaneo 3D de los capiteles el pasado mes de mayo, explicó cómo fue su experiencia y valoró muy positivamente su participación en este tipo de proyectos, recomendado a todos los presentes participar en futuras sesiones para poder ampliar el catálogo interactivo y tener el total de los 144 capiteles digitalizados.

read more
CVC LabsEvents & CommunityExperimentAI

El GPS del pulmón: imagen médica y salud conectada

_DSC7807

La Visión por Computador está experimentando cada vez más impacto en ámbito médico y de la salud. Un ejemplo de sus múltiples aplicaciones en este campo es el GPS del pulmón, una tecnología desarrollada por investigadores del Centro de Visión por Computador y del Hospital de Bellvitge. En la sesión de ExperimentAI del pasado miércoles, pudimos conocer esta innovadors tecnología y ver cómo puede ayudar a los médicos en la detección precoz del cáncer de pulmón.

Después de un breve parón de vacaciones de Navidad, el miércoles 9 de enero regresamos al Library Living Lab con ExperimentAI, un proyecto impulsado por el Centro de Visión por Computador y con la colaboración y financiación de FECYT – Ministerio de Ciencia, Innovación y Universidades, que lleva la Visión por Computador y la Inteligencia Artificial a la biblioteca. Esta vez, la finalidad de la sesión era conocer cómo puede aplicarse la Inteligencia Artificial y, en concreto, la Visión por Computador en los hospitales i descubrir la más reciente innovación tecnológica en este ámbito.

La sesión fue llevada a cabo por los investigadores del grupo Interactive & Augmented Modelling (IAM) del Centro de Visión por Computador, un grupo de investigación que trabaja el desarrollo de herramientas matemáticas y entornos virtuales y de realidad aumentada para el procesamiento de imágenes biomédicas. Como en otras sesiones anteriores, los participantes pudieron dividirse en grupos reducidos para poder disfrutar de un trato más cercano con los investigadores y experimentar con tranquilidad la demostración tecnológica mostrada.

De este modo, los usuarios fueron pasando por cada una de las tres estaciones, descubriendo cómo la tecnología puede ayudar al diagnóstico médico y a la automatización de algunas tareas rutinarias y tediosas. En la primera estación, el Dr. Carles Sánchez presentó, de una forma muy general y didáctica, cómo se utiliza la visión por computador en medicina, así como otros proyectos que ha llevado a cabo este grupo de investigación en el sector médico.

En la siguiente parada, el estudiante de doctorado Esmitt Ramirez explicó, con la ayuda de unos paneles gráficos, en qué consiste exactamente el GPS del pulmón. Esta tecnología mejora los procedimientos de la broncoscopia mediante técnicas de visión por computador y realidad aumentada, que permiten realizar una réplica virtual exacta del pulmón del paciente. Esto permite a los médicos localizar de forma automática la lesión y moverse por dentro de los bronquios de los pacientes siguiendo una ruta planificada y localizada. De modo, los médicos pueden garantizar una intervención más rápida, fácil, eficaz y menos costosa en la obtención de las biopsias para la detección precoz de cáncer de pulmón. Esmitt Ramirez también explicó cómo se realiza la bronoscopia tradicional y los asistentes pudieron ver y trastear un broncoscopio real. De este modo, pudieron descubrir y comparar cómo cambia este procedimiento cuando se utiliza este soporte tecnológico.

En tercera estación, los participantes pudieron ver y probar la demostración tecnológica BronchoX, una herramienta open-source de exploración no invasiva para la planificación de la intervención y la navegación en posibles lesiones pulmonares, mientras escuchaban las explicaciones de la Dra. Debora Gil, investigadora principal del grupo IAM. En esta demostración, los usuarios pudieron ponerse en la piel de los médicos, navegado por unos pulmones virtuales y viendo cómo el sistema responde a nuestros comandos de voz y gestos para irnos guiando en nuestro recorrido por el árbol pulmonar hasta llegar a la lesión.

Esta actividad estaba enmarcada dentro de la serie ‘Mujeres y ciencia’ de ExperimentAI; que consiste en una serie de sesiones dedicadas a potenciar proyectos tecnológicos liderados por investigadoras. Al ser preguntados, los participantes comentaron que, a pesar de la complejidad de la temática, fue muy interesante y enriquecedor descubrir casos de uso de la tecnología en ámbitos tan relevantes e importantes para la sociedad como es la medicina.

read more
CVC LabsEvents & CommunityExperimentAI

Patrones biométricos: cómo saber la edad y el género con IA

_DSC7695

Como cada miércoles de noviembre a febrero, el pasado 19 de diciembre, regresamos al Library Living Lab de la Biblioteca Miquel Batllori de Volpelleres, Sant Cugat, para experimentar la tecnología con el proyecto ExperimentAI. En esta ocasión, los participantes de ExperimentAI descubrieron el concepto de patrones biométricos mediante una demostración tecnológica que utiliza visión por computador para predecir la edad y el género de las personas.

ExperimentAI es un proyecto impulsado por el Centro de Visión por Computador con la financiación de FECYT – Ministerio de Ciencia Innovación y Universidades que consta de un total de 15 sesiones interactivas para impulsar la alfabetización en el ámbito de la Inteligencia Artificial y la Visión por Computador y fomentar la participación ciudadana en los procesos de ciencia e innovación. El proyecto cuenta siempre con demostraciones, talleres y actividades que demuestran los resultados de proyectos de investigación más innovadores.

En esta sesión, el Dr. Jordi González, investigador del CVC y profesor de la Escuela de Ingeniería de la UAB, llevó a cabo una presentación sobre el impacto de la Inteligencia Artificial en las redes sociales. Esta explicación, sin duda, generó un ambiente de diálogo y reflexión muy interesante para los asistentes, ya que se trataron temas muy variados y de rigurosa actualidad como la protección a la intimidad, la detección emocional en las redes sociales, el uso del big data en marketing o el aumento de las fake news.

Al otro lado del laboratorio, se encontraba la demostración tecnológica, lista para experimentar y poner a prueba. Como ya hemos visto en las sesiones anteriores, esta acostumbra a ser la parte que más expectativas genera y, esta vez, no fue menos: todos los participantes quisieron ponerse en frente de la cámara para ver si el ordenador era capaz de adivinar sus edades reales.

Presentando la demostración estaba Pau Rodríguez, estudiante de doctorado del CVC, que explicó de una forma muy didáctica y discernida la tecnología que hay detrás de ella y cómo había estado entrenada para poder predecir la edad y el género de cualquier persona. También explicó, con la ayuda de unos paneles ilustrativos, las diferencias entre los patrones de juventud y los patrones de vejez que permiten observar los cambios fisiológicos asociados a la edad.

Pau Rodriguez explicando la tecnología que detecta nuestra edad y género

La diversión también estaba asegurada para los niños. Esta vez, la responsable de comunicación del CVC y organizadora del proyecto ExperimentAI, Alexandra Canet, realizó un taller infantil para que los más pequeños también pudieran comprender e interiorizar de forma lúdica y participativa el concepto de patrones biométricos y su uso en ámbitos como el reconocimiento facial de nuestros smartphones. Posteriormente, los niños pasaron a testear la demostración tecnológica y se lo pasaron en grande poniéndose pelucas, bigotes, gafas y todo tipo de complementos para tratar de engañar a la máquina en la predicción de edad y género.

Los niños utilizaron pegatinas y midieron las diferentes partes de sus rostros para comprender el concepto de patrones biométricos

La sesión ya estaba a punto de terminar y, para poner el broche final a esa tarde tan fructífera, los investigadores explicaron a niños y a adultos el concepto de Red Neuronal Computacional mediante un metafórico juego de cajas que simulaban las distintas capas de una red neuronal. Dentro de cada caja, se encontraba un objeto que representaba la característica en la que la capa de la red neuronal se fija para adivinar lo que está viendo. De este modo, teniendo un objeto de entrada y uno de salida – en este caso, un león –, los participantes tenían que ir abriendo las cajas una a una para comprender en qué se fija cada capa de una red neuronal.

La metáfora de la Red Neuronal Computacional

Las reacciones de los participantes en esta sesión fueron muy positivas y, al ser preguntados, afirmaron que es un lujo poder contar con la presencia de investigadores que expliquen de una forma tan clara y amena el trabajo que se está llevando a cabo en los centros de investigación. Con esta sesión, llegamos al ecuador del proyecto ExperimentAI en el cual, hasta el momento, un total de 14 investigadores y 140 participantes ya han visitado el Library Living Lab para experimentar la más reciente innovación en el ámbito de la Inteligencia Artificial.

read more
CVC LabsEvents & CommunityExperimentAI

Compitiendo contra la Inteligencia Artificial del coche autónomo

DuO-J47WwAY0QsN

El pasado 12 de diciembre, y como cada miércoles hasta el 20/02/19, volvimos al Library Living Lab de mano del proyecto ExperimentAI, proyecto financiado por FECYT – Ministerio de Ciencia, Innovación y Universidades y organizado por el Centro de Visión por Computador, para mostrar a los asistentes cómo la Inteligencia Artificial de los coches autónomos es entrenada, con una actividad realmente espectacular: competir contra el coche autónomo dentro del mundo virtual desarrollado por el CVC: CARLA. 

Una demostración ambiciosa, pero que valió la pena. Con la sesión número 7 de ExperimentAI, ya son 130 personas las que han pasado, en un mes, por el Library Living Lab para conocer, de primer mano, la investigación que se realiza en España en visión por Computador e Inteligencia Artificial aplicada a cinco ámbitos muy concretos. En esta séptima sesión, volvimos a hablar de movilidad autónoma, pero con una puesta en escena diferentes y mucho más atractiva: la posibilidad de competir contra el coche autónomo y su inteligencia. También variamos el público, permitiendo que los más pequeños disfrutaran de una tarde tecnológica aprendiendo conceptos de investigación puntera en movilidad autónoma.

Nuestro doctorando, Felipe Codevilla, y nuestro técnico de apoyo, Marc Castelló, se situaron estratégicamente al lado de la demostración, para ir explicando a grandes y pequeños el funcionamiento de una carrera y qué era exactamente lo que estaban viviendo. La frase más repetida fue “esto no es un videojuego, es un simulador de código abierto de investigación“, y a partir de ahí, realizaban la explicación, mientras los participantes competían por dentro del mundo virtual contra la Inteligencia Artificial.

Uno de los más pequeños probando su destreza ante la Inteligencia Artificial del coche

Por otro lado, contamos con una explicación más teórica de los conceptos de anotación, ground truth y simulación por parte de otro miembro del equipo de investigación en movilidad autónoma, Marc García. Apoyado por los paneles explicativos, inició un debate con niños adultos sobre la importancia de la investigación dentro de este ámbito y la revolución que supone hacer uso de mundos virtuales.

 

Néstor Subiron, físico y programador, pilar del equipo de programadores de CARLA, volvió al Library Living Lab con su demostración, tal como hizo ya el 28/11/18, de cara a mostrar al público las funcionalidades internas del simulador, las diferentes capas con las que cuenta para poder entrenar al coche de forma efectiva, y dio la posibilidad a los asistentes de navegar, de forma autónoma, por dentro del mundo virtual, probando sensores, modificando características y emulando escenarios de entrenamiento. Todo ello, acompañado de preguntas e inquietudes que los participantes iban formulando, y el investigador iba respondiendo, entrando así en un debate altamente interesante sobre las posibilidades de toda esta tecnología.

Por último, el Dr. Antonio M. López, IP del proyecto, aprovechó para explicar su último proyecto, Vision Zero, un proyecto de ámbito internacional, desarrollado conjuntamente con Unity y otros partners globales, en el cual se pretende dar respuesta a través de medios de simulación a intersecciones de tráfico altamente conflictivas y congestionadas en diferentes ciudades del mundo.

El Dr. Antonio M. López, IP del proyecto, explica la iniciativa Vision Zero

Tuvimos asistentes de todas las edades. Los más pequeños disfrutaron con el juego del simulador, a la vez que los investigadores les explicaban que aquello no era un videojuego, sino un entorno virtual para hacer investigación. Las reacciones fueron realmente positivas, y los debates y diálogos que surgieron, como lo hacen siempre en estas sesiones, verdaderamente enriquecedores.

read more
1 2
Page 1 of 2