viernes
07/06
18:00h A 21:00h
Acceso gratuito, con registro
Plazas disponibles
Conferencia
viernes 07/06 18:00 h
BCN.AI Summer Event '19

Antes del verano, invitaremos a más de 150 personas de investigación, industria y startups a reunirse para escuchar los mejores profesionales de la IA en Barcelona. La ciudad tiene muchas personas con talento en el campo del deep learning y queremos que se convierta un hub. Por ello pero, necesitamos juntaros primero a vosotros. Habrán presentaciones técnicas, donde se espera que los asistentes tengan un conocimiento fundamental en Machine learning. Para obtener más información sobre nuestra visión de Barcelona como centro de inteligencia Artificial puedes visitar www.bcn.ai o apuntarte al próximo evento

Ponentes
Albert Pujol Torras - Head of Machine Learning at Satellogic Solutions
Ciprian Corneau - PhD,Universitat Autònoma de Barcelona
Petia Radeva - Professor, Universitat de Barcelona
Miquel Junyent - PhD Candidate, UPF & Grupo Oesia

Agenda
18:05 - 18:15 Introduction
18:15 - 18:40 Understanding the Planet using Satellites and DeepLearning

En esta presentación, Albert explicará cómo Satellogic usa el deeplearning y sus satélites para entender mejor el planeta. Aprenderemos sobre los satélites que rodean la tierra, el tipo de problemas que Satellogic está solucionando con deep learning, sus tecnologías y algunos de los desafíos a los que se enfrentan a diario así como sus principales áreas de investigación. Todo esto, con un approach práctico y compartiendo las lecciones más importantes aprendidas hasta el momento.

18:40 - 19:05 Reinforcement Learning: Beating AlphaZero
La toma de decisiones óptima de manera secuencial es uno de los mayores problemas en varios campos. Recientemente, en deep Reinforcement Learning (RL) se han logrado unos éxitos nunca vistos, sobretodo en el aprendizaje de controladores de lazo cerrados. Estos són capazes de obtener niveles de precision similar a la de los humanos en varios campos, cómo por ejemplo, los videojuegos de Atari. Sin embargo, el RL profundo todavía tiene muchas limitaciones en problemas que requieren realizar previsiones con mucha antelación temporal. Para este tipo de problemas, hay un componente de planificación importante, que actualmente se soluciona mediante la búsqueda de árbol de Monte Carlo (MCTS). Un ejemplo de esto puede ser AlphaZero, y su motor para resolver el juego de Go. Sin embargo el éxito de AlphaZero sigue siendo limitado a partidas de suma cero con dos jugadores. La hipótesis sobre estas mismas limitaciones es que consideran el estado como una caja negra y por tanto, no se benefician en ningún momento de la estructura. Los grupos de investigación de planning ya tienen experiencia explotando estas estructuras del estado durante varias décadas. Se propone pues, un algoritmo que consigue balancear estas técnicas de planning junto con el RL planning con aprendizaje de una manera novedosa. Durante esta presentación se va a demostrar cómo este algoritmo es capaz de ganar a AlphaZero en varios ámbitos, así como otros planners del Atari Suite.

19:05-19:30 Uncertainty-aware food recognition
En el campo de computación por visión, recientemente se han conseguido mejoras inesperadas mediante el uso de técnicas de deep learning que prácticamente consiguen solucionar problemas que antes no creíamos que se podían automatizar (cómo el reconocimiento facial). Sin embargo, el reconocimiento de imágenes de comida ha recibido pocos esfuerzos por parte de la comunidad de visión por computador. En este trabajo, repasamos el campo de análisis de imágenes de alimentos con un nuevo framework: uncertainty-aware multi-task food recognition. Después de discutir nuestra metodología para mejorar en esta dirección, comentaremos el potencial de investigación, así como los beneficios sociales y económicos de realizar más investigación en el análisis de imágenes de alimentos.


19:30-19:50 What does it mean to learn in deep networks
La flexibilidad y alta precisión de las redes neuronales profundas (DNNs) ha transformado el campo de visión por computador. Sin embargo, el hecho que no sepamos cuando una DNN funciona y cuando va a fallar ha resultado en una falta de confianza. Un claro ejemplo puede ser el caso de los coches de conducción autónoma, donde la gente se siente incómoda al sentarse en un coche conducido por algoritmos. Mediante la interpretabilidad y la explanabilidad, se han realizado varios intentos para mostrar lo que ocultan las DNN debajo de sus modelos, por ejemplo, lo que cada nodo representa y qué imágenes son más propensas a activarlo. Esto puede ser usado por ejemplo, para generar adversarial attacks. Pero estas aproximaciones no nos permiten, en general, determinar si una DNN va a tener éxito o fallar. Por ejemplo, decirnos si la representación aprendida va a generalizar correctamente con muestras que no ha visto anteriormente. En esta sesión se va a presentar un nuevo approach que define qué significa aprender en redes neuronales profundas y cómo usar este conocimiento para detectar adversarial attacks. Enseñaremos cómo esto define la habilidad de una red a generalizar utilizando ejemplos de testeo no visto, y lo más importante, porqué esto se produce.
19:50- 20:30 Networking
 

Acceso gratuito, con registro
Plazas disponibles