INTELIGENCIA ARTIFICIAL | Entender cómo aprenden las máquinas


| CIENCIA & TECNOLOGÍA | Inteligencia Artificial. ¿Podemos abrir la caja negra de la inteligencia artificial? La inteligencia artificial está en todas partes. Pero antes de que los científicos confíen en ella, deben entender cómo aprenden las máquinas. El problema de la caja negra


|Descifrar la caja negra se ha convertido en algo exponencialmente más difícil y más urgente. Esta tecnología se ha disparado tanto en su complejidad, como en sus aplicaciones.

La inteligencia artificial promete volverse omnipresente también en la ciencia.

Futuros observatorios de radioastronomía necesitarán hacer “aprendizaje profundo” para encontrar señales que valgan la pena; los detectores de ondas gravitacionales lo usarán para entender y eliminar las fuentes de ruido más pequeñas; y los editores lo utilizarán para rastrear y etiquetar millones de artículos de investigación y libros.

Con el tiempo, algunos investigadores creen, puede que hayan incluso ordenadores equipados con aprendizaje profundo que muestren imaginación y creatividad. “Usted podría simplemente aportar datos a esta máquina y le respondería con las leyes de la naturaleza, dice Jean-Roch Vlimant, un físico del Instituto de Tecnología de California, en Pasadena.

El problema de la caja negra

Sin embargo, estos avances podrían hacer que el problema de la caja negra sea aún más grave.

Por ejemplo, ¿cómo está exactamente una máquina encontrando esas señales que valen la pena? ¿Y cómo puede alguien estar seguro de que esa forma es correcta? ¿Hasta qué punto debería la gente confiar en el aprendizaje profundo?

“Creo que definitivamente estamos perdiendo terreno frente a estos algoritmos”, dice el especialista en robótica Hod Lipson, de la Universidad de Columbia, en la ciudad de Nueva York.

Él compara la situación con un encuentro con una especie alienígena inteligente cuyos ojos tienen receptores no solo para los colores primarios rojo, verde y azul, sino también para un cuarto color. Sería muy difícil para los seres humanos entender cómo este extraterrestre ve el mundo y sería difícil que el alienígena nos lo explique, dice.

Las computadoras tendrán dificultades similares para explicarnos cosas a nosotros, dice. “En algún momento, será como explicarle Shakespeare a un perro”.

Frente a estos desafíos, los investigadores de IA están respondiendo al igual que lo hizo Pomerleau -abriendo la caja negra y haciendo el equivalente a lo que hace la neurociencia para entender las redes del interior-. Las respuestas son reveladoras, dice Vincenzo Innocente, físico del CERN, el laboratorio europeo de física de partículas cerca de Ginebra, Suiza, que ha sido pionero en la aplicación de la IA en este campo.

“Como científico”, dice, “no estoy satisfecho con distinguir a los gatos de los perros. Un científico quiere ser capaz de decir: ‘la diferencia es tal y tal’”.

 


 

 

Revista Tiempo 30

css.php