close

CVC Labs

CVC LabsEvents & CommunityExperimentAI

Sesión final del proyecto ExperimentAI: movilidad autónoma en coches y drones

_DSC8300

El miércoles 20 de febrero se celebró la última sesión del proyecto ExperimentAI y, para poner broche final a esta iniciativa que nos ha traído cada miércoles la Inteligencia Artificial a la biblioteca, hablamos de uno de los grandes retos que deberá afrontar la sociedad en los próximos años: la movilidad autónoma.

ExperimentAI es un proyecto impulsado por el Centro de Visión por Computador y financiado por FECYT – Ministerio de Ciencia, Innovación y Universidades que, como se ha comentado en crónicas anteriores, tiene la finalidad de acercar la investigación puntera en Inteligencia Artificial y Visión por Computador a la ciudadanía. El proyecto ha estado formado por un total de 15 sesiones interactivas y participativas destinadas a un público amplio y no especializado que se han realizado todos miércoles des del 7 de noviembre de 2018 hasta el 20 de febrero de 2019 en el Library Living Lab de la Biblioteca Miquel Batllori de Volpelleres, Sant Cugat.

En la sesión del 20 de febrero, los participantes pudieron descubrir las novedades en materia de conducción autónoma de la mano del Dr. Antonio López, investigador principal de movilidad autónoma en el Centro de Visión por Computador y profesor de la Escuela de Ingeniería de la UAB. El Dr. López, explicó a los asistentes los avances más recientes en la investigación del coche autónomo y el uso de simuladores para enseñarlos a conducir. Uno de estos simuladores es CARLA, un mundo virtual de código abierto desarrollado por el CVC, Intel y Toyota, que ya conocimos profundamente en la sesión de ExperimentAI del día 28 de noviembre “CARLA: la matrix que entrena a los coches autónomos”.

El Dr. Antonio López hablando de conducción autónoma

Los asistentes pudieron probar una demostración tecnológica con la que experimentaron, según el Dr. Antonio López, los cuatro aspectos clave de la movilidad autónoma: la Inteligencia Artificial, los distintos paradigmas para entrenarla, la simulación y cómo llevar el entrenamiento al mundo físico. De este modo, la demostración consistía en competir contra la Inteligencia Artificial dentro del mundo virtual de CARLA e intentar llegar a la meta antes que ella respetando las normas de seguridad vial. Esta Inteligencia Artificial estaba ubicada en un prototipo de coche de juguete, que iba moviendo sus ruedas conforme los movimientos que realizaba dentro del mundo virtual.

Adultos y, sobre todo, niños, estuvieron probando y retando a la Inteligencia Artificial por el mundo de CARLA durante toda la tarde, asombrados al ver como, lo que a simple vista parece un videojuego para el entretenimiento, es en realidad una de las tecnologías más punteras a nivel mundial para la investigación de los vehículos inteligentes.

Sin embargo, esta última sesión no solo estuvo relacionada con los vehículos de cuatro ruedas, sino que también se hizo especial hincapié en la investigación que se está llevando a cabo en el Centro de Visión por Computador en materia de drones. En este punto, el Dr. Fernando Vilariño, subdirector del Centro de Visión por Computador y director de la European Network of Living Labs (ENoLL), realizó una presentación para explicar cómo se estos vehículos aéreos sin tripulación utilizan visión por computador para la asistencia a los bomberos en la gestión de emergencias y para la monitorización de campos de cultivo.

Y con esta interesante sesión ponemos punto final a ExperimentAI, un proyecto que ha resultado ser muy gratificante y enriquecedor y que ha sido posible gracias a la colaboración y esfuerzo de más de 35 investigadores y profesionales del Centro de Visión por Computador. Solo nos queda agradecer a la Fundación Española para la Ciencia y la Tecnología – Ministerio de Ciencia, Innovación y Universidades por su soporte y a los partners del Library Living Lab – Asociación de Vecinos del barrio de Volpelleres, Universidad Autónoma de Barcelona, Ayuntamiento de Sant Cugat y Diputación de Barcelona – por su colaboración. Por supuesto, también agradecer a todos usuarios que han participado en las sesiones de ExperimentAI durante estos cuatro meses, ya sea de forma asidua o puntual. ¡Esperamos que hayáis disfrutado tanto de las experiencias como nosotros!

Nos despedimos de ExperimentAI pero no por mucho; esperamos poder volver en próximas ediciones, con nuevas experiencias, nuevas actividades y nuevas tecnologías. ¡Hasta pronto!


read more
CVC LabsEvents & CommunityExperimentAI

Cómo un videojuego puede ayudar al aprendizaje de estrategia y matemáticas

_DSC8223

Los videojuegos comerciales no son sólo una forma de ocio y entretenimiento. Detrás de algunos de ellos, existen grandes oportunidades para el aprendizaje, la formación y la adquisición de conocimientos en muchos campos diferentes. En la penúltima sesión del proyecto ExperimentAI, llevada a cabo el del 13 de febrero de 2019 en el Library Living Lab, descubrimos un videojuego que ofrece, en concreto, grandes oportunidades para el aprendizaje de las matemáticas.

Como cada miércoles, des de los últimos 4 meses, volvimos al Library Living Lab de la biblioteca Miquel Batllori de Volpelleres (Sant Cugat del Vallès) para experimentar la Inteligencia Artificial con el proyecto ExperimentAI. ExperimentAI es una iniciativa del Centro de Visión por Computador, con la colaboración y financiación de FECYT- Ministerio de Ciencia, Innovación y Universidades, que tiene el objetivo de acercar a la ciudadanía la investigación más innovadora en Inteligencia Artificial mediante un conjunto de sesiones interactivas y dinámicas.

En esta sesión, dirigida a todos los públicos, quisimos hablar de videojuegos y, en concreto, demostrar cómo algunos de ellos, a parte de ser fuente de horas y horas de entretenimiento, también pueden convertirse en potentes herramientas para la obtención de competencias y habilidades. La Dra. Aura Hernández, investigadora del Centro de Visión por Computador y profesora de la Escuela de Ingeniería de la Universidad Autónoma de Barcelona explicó el beneficio de distintos videojuegos comerciales y cómo estos pueden aplicarse a las aulas.

Además, la Dra. Hernández habló del videojuego Vector Tower Defense de Candystand, un videojuego que ofrece oportunidades de aprendizaje de matemáticas y estrategia y que los participantes de la sesión pudieron probar a tiempo real. El objetivo de este juego es defender un camino por el que circulan nuestros enemigos, llamados vectoids, y prohibir que lleguen al final atacándolos mediante un sistema de torres y bonificaciones que nos permiten poner a prueba nuestras habilidades estratégicas y de cálculo. De este modo, durante la partida, nos vamos encontrando con una serie de problemas matemáticos que deben ser resueltos de forma ágil para poder pasar de nivel.

Los más pequeños estuvieron probando el juego durante toda sesión y fue muy curioso ver cómo trabajaban en equipo para pensar la mejor estrategia que les permitiera ganar el mayor número de puntos. Sin embargo, no se trata de un videojuego solo para niños; los adultos también lo probaron y estuvieron de acuerdo en la agilidad mental que se requiere para poder ir superando los distintos niveles de dificultad.

Además, incorporar este tipo de videojuegos a las aulas no solo puede ser enriquecedor y significante para los alumnos, sino que también puede suponer un valor añadido para profesores, pedagogos e investigadores. Mediante la tecnología del Eye Tracking, se puede hacer un seguimiento del comportamiento ocular de los jugadores para extraer información sobre cómo aprendemos y cómo desarrollamos la estrategia matemática para resolver un juego, tal como lo estuvo enseñando la Dra. Aura Hernández a los participantes de la sesión.

Esta actividad estaba enmarcada dentro de la serie “Mujeres y Ciencia” del proyecto experimentAI. Esta serie de sesiones están dedicadas a potenciar y promover proyectos tecnológicos impulsados por mujeres investigadoras.

read more
CVC LabsEvents & CommunityExperimentAI

Percepción Visual: los juegos visuales del ojo con el cerebro

_DSC8135

El estudio de la percepción visual es clave para comprender la visión artificial. En la sesión de ExperimentAI del miércoles 6 de febrero en el Library Living Lab, descubrimos su importancia y pudimos comprobar como nuestro cerebro nos engaña delante de ciertos estímulos visuales, de la mano de los investigadores del NeuroComputation and Biological Vision Team (NeuroBIT) del Centro de Visión por Computador.

ExperimentAI es un proyecto organizado por el Centro de Visión por Computador y financiado por FECYT – Ministerio de Ciencia, Innovación y Universidades, que se celebra todos los miércoles des del 07/11/18 hasta el 20/03/19 en el Library Living Lab de la Biblioteca Miquel Batllori de Volpelleres. Esta iniciativa tiene la intención de acercar, siempre de una forma lúdica y didáctica, la ciencia a un público amplio y no especializado para que puedan conocer de primera mano la investigación que se está gestando en las universidades y conversar de forma directa con los investigadores que la están llevando a cabo.

En la sesión del 6 de febrero, pensada para el público general, tanto adultos como niños pudieron conocer con lujo de detalles la investigación llevada a cabo por el grupo NeuroBIT en el Centro de Visión por Computador. Para que la sesión fuera más fluida e interactiva, los participantes se dividieron en grupos más reducidos para poder ir rotando por las diferentes explicaciones y talleres que fueron planteados.  

Centrándonos en el itinerario de los adultos, en primer lugar, empezaron la sesión con una presentación muy didáctica sobre la percepción visual por el Dr. Xavier Otazu, con la explicación de conceptos como visual saliency, visual discomfort o chromatic and brightness induction, seguramente muy desconocidos hasta el momento por los participantes, pero de relevante importancia en la investigación de la visión por computador.

Estos conceptos pudieron verse, a continuación, aplicados en distintos ejemplos plasmados en los paneles gráficos que explicó el Dr. Alejandro Párraga. Seguramente todo el mundo recuerda el vestido que se volvió viral en 2015 por dividir las redes sociales entre aquellos que lo veían de color azul y negro y los que lo apreciaban blanco y dorado. Pues bien, este fenómeno tiene una explicación de percepción visual y fue expuesta por el Dr. Párraga, juntamente con otras ilusiones ópticas como el Efecto Acuarela, en el que un área blanca adquiere un tinte pálido del color que la rodea; el Tilt Effect – o efecto de inclinación – mediante el que líneas que son totalmente rectas y paralelas parece que estén curvadas por la disposición de los cuadros y por el contraste de blanco y negro; o el Color Induction – o inducción al color – con el que vemos como un mismo color se percibe de distintas maneras según los elementos que tiene a su alrededor.

Los usuarios quedaron incrédulos al ver cómo respondía su cerebro respondía de forma errónea delante de todos estos experimentos ópticos y quedaron totalmente sorprendidos al descubrir las explicaciones científicas del Dr. Párraga, que les daban un sentido lógico a estos experimentos.

En esta sesión también descubrimos el Eye Tracking, una tecnología que extrae información del usuario a partir del análisis de sus movimientos oculares. El estudiante de doctorado David Berga, se encargó de explicar sus características a los participantes y proponer distintos experimentos para que pudieran entender cómo funciona esta tecnología y las posibilidades que abarca.

Esta sesión también despertó mucho la curiosidad de los más pequeños, que se lo pasaron en grande probando y descubriendo toda clase de ilusiones ópticas y participando en los distintos experimentos de la demostración del Eye Tracking. Las explicaciones a los niños las llevaron a cabo el estudiante de doctorado Xim Cerdà-Company y la estudiante de Máster en Visión por Computador Nilai Sallent, que supieron adaptar a la perfección las explicaciones técnicas al vocabulario y a las capacidades de los infantes. Además, los niños también pudieron realizar dos test muy conocidos en el diagnóstico de daltonismo: el test Ishihara, que consiste en detectar qué número aparece en un fondo lleno de pequeñas esferas de colores; y el test Farnsworth, que consiste en ordenar una serie de fichas de color formando una transición gradual.

read more
CVC LabsEvents & CommunityExperimentAI

Cómo detectamos el cáncer de colon con imagen médica

_DSC8114

La Visión por Computador se está aplicando cada vez más en el ámbito de la salud, dando lugar a herramientas de asistencia a los médicos en el diagnóstico, la planificación y la intervención médica. Un ejemplo es la tecnología para la detección precoz del cáncer de colon desarrollada por investigadores del Centro de Visión por Computador y la Unidad de Endoscopia Digestiva del Hospital Clínic de Barcelona, que descubrimos en la sesión de ExperimentAI del 30 de enero en el Library Living Lab de la Biblioteca Miquel Batllori de Volpelleres, Sant Cugat.

ExperimentAI es un proyecto impulsado por el Centro de Visión por Computador y financiado por FECYT – Ministerio de Ciencia, Innovación y Universidades, para experimentar de primera mano la investigación pionera en temas de Inteligencia Artificial y Visión por Computador. Está formado por un conjunto de 15 sesiones que permiten, a un público amplio y no especializado, ir desgranando los conceptos que conforman la lógica y la base del estudio de los algoritmos inteligentes en distintos ámbitos mediante demostraciones interactivas, talleres y otras actividades didácticas y participativas.

En la sesión del 30 de enero, pudimos ver cómo la Inteligencia Artificial se está introduciendo a los hospitales para actuar como aliada de los médicos en el diagnóstico de enfermedades como, en este caso, el cáncer de colon. Lo descubrimos de la mano del Dr. Jorge Bernal, investigador del Centro de Visión por Computador y profesor de la Escuela de Ingeniería de la Universidad Autónoma de Barcelona, que realizó una presentación muy didáctica y estuvo al alcance de los asistentes para contestar todas las dudas y aportaciones.

Según el Dr. Bernal, el diagnóstico de cáncer de colon se lleva a cabo a partir de la identificación de su lesión precursora: el pólipo. Los pólipos, en su etapa inicial, no son cancerígenos pero su malignidad puede ir evolucionando con el tiempo. Por este motivo, una detección precoz de la lesión es crucial para garantizar la salud del paciente.

Actualmente, la técnica más utilizada para la localización de pólipos es la colonoscopia, pero, desafortunadamente, no siempre es capaz de detectar todos los pólipos durante las exploraciones. Para mejorar esto, investigadores del CVC han trabajado conjuntamente con la Unidad de Endoscopia Digestiva del Hospital Clínic de Barcelona en el desarrollo de sistemas de visualización avanzados para identificar mejor las lesiones y caracterizar de forma automática de la superfície de los pólipos para determinar su grado de malignidad.

El Dr. Jorge Bernal hablando sobre detección y localización de pólipos

En el Library Living Lab pudimos comprender y experimentar esta tecnología mediante una demostración que nos retaba a identificar un pólipo para descubrir su grado de malignidad. La demostración fue explicada por el propio Dr. Bernal y por Yael Tudela, estudiante de la escuela de ingeniería que ha estado trabajando en la elaboración de esta demostración. Además, tuvimos la suerte de contar con la presencia de parte del equipo del Hospital Clínic que aportaron sus conocimientos y contaron su experiencia con estos sistemas de soporte al personal clínico.

Usuario probando la demostración tecnológica de clasificación de pólipos
Yael Tudela explicando el funcionamiento de la demostración tecnológica para la clasificación de pólipos
read more
CVC LabsEvents & CommunityExperimentAI

Detectando nuestra personalidad aparente con visión por computador

_DSC8053

El pasado miércoles 23 de enero y, como cada miércoles des del 7/11/2018 hasta el 20/02/2019, regresamos al Library Living Lab con una nueva sesión de ExperimentAI, un proyecto organizado por el Centro de Visión por Computador y financiado por FECYT – Ministerio de Ciencia, Innovación y Universidades para acercar la ciencia y la tecnología a la ciudadanía. Esta vez, nos reunimos para mostrar como la Inteligencia Artificial puede detectar la personalidad aparente de una persona y cómo esta tecnología puede utilizarse en distintos ámbitos como, por ejemplo, en los Recursos Humanos.

La sesión consistió en 4 actividades – 3 para adultos y 1 para niños – partiendo, de este modo, a los asistentes en 4 grupos y rotando en cada ‘estación’ de cara a tener la oportunidad de escuchar de forma más personalizada cada una de las explicaciones y tener un trato más cercano con los investigadores. Esta dinámica de sesión ya la llevamos a cabo en pasadas sesiones del proyecto y su resultado ha sido muy satisfactorio, ya que permite a los asistentes establecer un diálogo muy interesante y enriquecedor con los investigadores.

En una de las estaciones, se encontraba el Dr. Sergio Escalera, investigador del Centro de Visión por Computador y de la Universidad de Barcelona e investigador principal del grupo Human Pose Recovery and Behavior Analysis (HuPBA), dedicado a investigar métodos computacionales capaces de identificar rasgos corporales y comportamientos personales en imágenes. El Dr. Escalera se encargó de hacer una presentación general sobre los análisis computacionales de la personalidad, un tema que ha llamado mucho la atención a la comunidad de la visión artificial y el Machine Learning en los últimos años.

El Dr. Sergio Escalera hablando sobre analizar la personalidad aparente mediante visión por computador

En otra estación, estaba el Dr. Xavier Baró, investigador de la Universitat Oberta de Barcelona, mostrando un conjunto de paneles informativos que explicaban de una forma muy ilustrativa el método con el que han entrenado el software y la base psicológica que hay detrás de esta tecnología. El método parte de la teoría psicológica OCEAN, también conocido como The Big Five o Five-Factor Model. Este método evalúa y analiza la composición de cinco dimensiones de la personalidad humana: abertura a la experiencia, responsabilidad, extraversión amabilidad e inestabilidad emocional.

El Dr. Xavier Baró explicando la teoría psicológica del Big Five

En la estación restante, había una demostración tecnológica en la que todos los participantes pudieron conocer los resultados de su personalidad aparente mediante un vídeo. En este caso, los usuarios tenían que hablar a cámara durante unos quince segundos y, después de procesar el vídeo, la máquina indicaba que porcentaje tenían de cada uno de los rasgos de personalidad que conforman el modelo OCEAN. De la explicación de la demostración se encargaron Coen Antens, responsable de la Unidad de Soporte Técnico del CVC, y Julio Jacques Jr., estudiante de doctorado del grupo HuPBA, con los que los participantes pudieron debatir sobre las concordancias entre las predicciones de la tecnología y sus propias opiniones.

En esta sesión, los niños también tuvieron su espacio para experimentar y descubrir el uso de la Inteligencia Artificial en el análisis del comportamiento humano. Ellos aprendieron cómo se detectan las emociones mediante visión por computador y vieron cómo funcionan los sistemas de reconocimiento facial de una forma lúdica y distendida. Finalmente, también pudieron probar la demostración tecnológica, haciendo distintos roles y actuando como si fueran distintos personajes para poner a prueba las predicciones de la máquina.

read more
1 2 3 5
Page 1 of 5