Marc Schoenauer es investigador senior en Inria, con más de 20 años en la institución. Antes, estuvo en el Centre National de la Recherche Scientifique (CNRS) y en el Centre de Mathématiques Appliquées (CMAP) de la École Polytechnique. Fundó el equipo TAO en Inria Saclay junto a Michèle Sebag en 2003. Su trabajo se halla en la frontera entre la computación evolutiva (EC) y el aprendizaje automático (o Machine Learning) y autor de más de 150 artículos y (co)asesor de 35 estudiantes de doctorado. Ha sido Presidente de ACM-SIGEVO (2015-2019) y presidente de AFIA (2002-2004) y apoyó a Cédric Villani en la redacción de su informe sobre la Estrategia Francesa para la IA presentado en marzo de 2018.
El advenimiento del aprendizaje profundo (o Deep Learning) ha desencadenado éxitos increíbles en el campo de la Inteligencia Artificial, pero ahora parece estar tocando un techo de cristal en términos de confiabilidad en sus dominios favoritos, como imágenes y videos, PNL, juegos… Esto, mientras, simultáneamente se expande horizontalmente hacia todos los dominios científicos. En este keynote, argumentaré que en ambos contextos, la hibridación de aprendizaje profundo y otros campos es la clave para futuros avances beneficiosos e ilustraremos estos argumentos con algunos ejemplos.
En efecto, actualmente no hay cómo garantizar que una red neuronal profunda se comporte tal cual se entrenó. Existen numerosos ejemplos de comportamientos catastróficos no deseados debido a ataques adversarios o contextos que son demasiado diferentes. Probablemente nunca lleguemos a alcanzar un 100% de fiabilidad (ni siquiera un 99,99%), pero hay muchos dominios de aplicación que no son críticos, en los que es admisible cierto rango de error, o en los que los sistemas de IA solo hacen una preselección de casos claros, pero preguntan al experto humano en caso de duda. Esta colaboración hombre-máquina es una de las potencialidades, si nos ocupamos de mantener el control humano sobre la decisión final.
Es difícil de decir. Algunos (famosos) científicos piensan que el DL lo es todo y que podrá reemplazar a todas las ciencias, lo que es caricaturesco, pero no del todo exagerado. Algunos otros científicos tienen serias dudas al respecto y están discutiendo que ya hemos llegado a la cima de la colina, por lo que DL ya se estaría derrumbando. Técnicamente, sus límites son difíciles de identificar. Creo que estamos muy lejos, por ejemplo, de una Inteligencia General Artificial (AGI), pero esto no significa que no se pueda lograr un gran progreso en el camino hacia AGI, incluso si nunca estaremos ni cerca de alcanzarse.
Sin embargo, los principales obstáculos que enfrenta el DL no son solo técnicos, sino que tienen relación con la confiabilidad, que incluye la comprensibilidad, la solidez/certificación, la equidad, la privacidad, el costo computacional/energético, la falta de sentido común, entre muchos otros problemas.
Bueno, ese es el título de mi keynote... Sí, creo que eso es cierto. Más aún para la investigación pública que para la que enfrentan las grandes empresas tecnológicas, como GAFAM o BATX, porque la IA se está convirtiendo en una herramienta obligatoria en la caja de herramientas de cualquier científico. Además, se esperan grandes avances en otros dominios gracias a la IA, pero también en la IA misma debido a nuevos problemas. Se enfrentarán los dominios. Y la investigación pública cubre todas las áreas posibles, algo con lo que las grandes tecnologías no pueden competir, por lo que todavía hay nichos en los que la investigación pública puede cubrir y lograr antes que las grandes tecnologías.
Si crees que la hibridación es el futuro de la IA, también crees que la colaboración, a través de fronteras geográficas y disciplinarias, es el único camino a seguir. Y la mayoría de los jugadores de hoy en IA juegan el juego de la reproducibilidad, la transparencia y la apertura. Al menos los que publican en conferencias conocidas porque, claro, de los otros no sabemos…
En primer lugar, se necesita que los políticos, quienes deciden dónde debe ir el dinero para la investigación, estén convencidos. Creo que el informe Villani no es una causa, sino una consecuencia de tal convicción de los políticos franceses en el poder en ese momento. Pero luego, uno se da cuenta de que sus grados de libertad son bastante limitados. Algunas otras iniciativas ya están en marcha y básicamente solo puedes influir en el margen. Pero llegas a conocer gente muy diversa e interesante y ello es siempre fascinante.
En cuanto a América Latina, confieso que no tengo suficiente contexto para decir algo inteligente. Sin embargo, se me viene a la mente una cosa: en Francia, cuando se ordenó la estrategia francesa de IA, acabábamos de experimentar un cambio de políticos (la llegada del presidente Macron) y esto puede explicar esta voluntad de cambiar las cosas. Entonces, tal vez, ¿es este el momento adecuado para Chile? Necesitas a alguien que conozca muy bien el panorama científico y político para liderar el juego.