Una Inteligencia Artificial que aprende continuamente es claramente un objetivo actual. El programa L2M de DARPA refleja esta meta. En los últimos años ha habido un gran avance en la tecnología de inteligencia artificial. Sin embargo, todavía esta tecnología no es capaz de realizar muchas tareas que el ser humano realiza muy fácilmente como aprender de la experiencia continuamente. Este proyecto/programa tratará de revertir esta situación.

Un ejemplo de problema

Conducir autos, responder a las órdenes de un humano, jugar al ajedrez, y otras tareas que actualmente realiza la inteligencia artificial son muy publicitadas. Sin embargo, todavía existen problemas en algunas áreas como las de conducir en forma automática un automóvil.

No hace mucho tiempo un automóvil conducido por la inteligencia artificial se encontró en un problema, para el cual los algoritmos y el entrenamiento que tenía no estaban preparados. Por lo tanto, estuvo esperando pacientemente a que el otro conductor humano resolviera el problema realizando maniobras en reversa y violando las leyes de tránsito para salir de la situación. El auto conducido por la inteligencia artificial no realizaba ninguna maniobra. Estaba paralizado.

Aprender como un humano

Si bien éste es un ejemplo, existen una infinidad de situaciones en las cuales la inteligencia artificial todavía requiere transitar un largo camino. El verdadero problema de la inteligencia artificial actual es que no aprende de la misma manera en la que lo haría un humano, intuitivamente, inmediatamente y sin olvidar cómo hacer para resolver el problema.

Algunos en este momento estarán pensando en el famoso dicho que dice: “el hombre es el único animal que tropieza dos veces con la misma piedra”. Tampoco el aprendizaje de los humanos está libre de inconvenientes, pero estamos hablando de situaciones recurrentes. Es muy probable que un humano tropiece la segunda y la tercera vez con la misma piedra, pero luego de eso aprenderá y lo resolverá. Los algoritmos de inteligencia artificial actualmente no puede resolverlo.

La vida es por definición impredecible. Es imposible para los programadores anticiparse a cada situación problemática o sorprendente que pudiera surgir, lo que significa que los sistemas existentes siguen siendo susceptibles a los fallos, ya que se encuentran con la imprevisibilidad de las circunstancias del mundo real.

Machine Learning actualmente

Actualmente muchas soluciones utilizan redes neuronales. La capacidad de aprendizaje de estas redes reside en los pesos de las conexiones entre sus neuronas artificiales. Estos pesos son obtenidos durante el proceso de entrenamiento (supervisado la mayoría de los casos). El problema surge cuando se encuentra con algo para lo que nunca fue entrenado a reconocer. Sin un nuevo entrenamiento, el sistema cometería el mismo error una y otra vez.

En este momento la inteligencia artificial actual no puede ser reentrenada fácilmente. Si tratamos de hacerlo con los sistemas de hoy en día, habitualmente caemos en un fenómeno llamado “olvido catastrófico”, tal como explicó Siegelmann en la Conferencia IEEE “Rebooting Computing Conference”. El aprendizaje del nuevo elemento interrumpe el conocimiento de todas las otras cosas que el sistema ya sabía.

El proyecto L2M de DARPA

La Agencia de Proyectos de Investigación Avanzada de Defensa de EE.UU. (DARPA) está tratando de cambiar la forma en que funciona la inteligencia artificial a través de un programa de investigación llamado “Lifelong Learning Machines” o L2M (máquinas de aprendizaje permanente). Está buscando que los sistemas puedan aprender continuamente, que puedan adaptarse a las nuevas tareas, y saber qué aprender y cuándo. O sea, el rigor de la automatización con la flexibilidad de los recursos que tienen los humanos. El objetivo es desarrollar nuevos mecanismos que permitan aplicar los resultados de la experiencia pasada y adaptarlos a las lecciones aprendidas de los nuevos datos o situaciones. Esto requiere de un continuo monitoreo del comportamiento del aprendizaje automático, así como de asignar límites en el alcance y en la habilidad para adaptarse, y de última, en intervenir en el sistema cuando sea necesario.

Conclusión

Si bien hoy en día está muy de moda el uso de las redes neuronales, queda bastante claro que existen inconvenientes con las técnicas actuales. El mayor inconveniente radica en las situaciones nuevas o inesperadas. Los seres humanos recurren no sólo al aprendizaje por prueba y error, que podría considerarse como una de las características má sobresalientes de las técnicas de reinforcement learning (aprendizaje por refuerzo), sino también a la intuición. Estamos todavía muy lejos de que la inteligencia artificial tenga este tipo de comportamiento guiado por la intuición. Este proyecto tiene objetivos un poco menos ambiciosos y más realistas que pensar que una máquina con inteligencia artificial puede equiparar el comportamiento de un humano.

El programa tiene como objetivo desarrollar fundamentalmente nuevos mecanismos que permitan aprender continuamente de la experiencia tal como los niños y otros sistemas biológicos hacen, usando la vida como un conjunto de entrenamiento. El conocimiento básico de cómo desarrollar una máquina que realmente podría mejorar la experiencia mediante la obtención de lecciones generalizables a situaciones específicas es todavía muy inmaduro. El programa L2M proporcionará una oportunidad única para construir una comunidad de informáticos y biólogos para explorar estos nuevos mecanismos.

Referencias

DARPA Seeking AI That Learns All the Time

Toward Machines that Improve with Experience

Problemas de seguridad relacionados a la inteligencia artificial

 

 


Dejá un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *