El día en que Richard Feynman murió, la pizarra en su aula leía: "Lo que no puedo crear, no lo entiendo".

Cuando Ian Goodfellow explica la investigación que está haciendo en Google Brain, el laboratorio central de inteligencia artificial de la compañía más poderosa de Internet, señala este aforismo del icónico físico, profesor de Caltech y autor más vendido. Pero Goodfellow no se está refiriendo a sí mismo ni a ningún otro ser humano dentro de Google. Está hablando de las máquinas: "Lo que una IA no puede crear, no lo entiende".

Goodfellow es uno de los investigadores más importantes del mundo de la IA, y después de un breve periodo en OpenAI -el competidor de Google Brain, arrancado por Elon Musk y Sam Altman- ha regresado a Google, construyendo un nuevo grupo de investigación que explora "modelos generativos". Sistemas que crean fotos, sonidos y otras representaciones del mundo real. Nodding a Feynman, Goodfellow describe este esfuerzo como un camino importante para todo tipo de inteligencia artificial.

"Si una IA puede imaginar el mundo en detalle realista, aprender a imaginar imágenes realistas y sonidos realistas, esto anima a la IA a conocer la estructura del mundo que realmente existe", explica. "Puede ayudar a la IA a entender las imágenes que ve o suena que oye".

En 2014, mientras aún era estudiante de doctorado en la Universidad de Montreal, Goodfellow ideó una técnica de IA llamada "redes generativas adversarias", o GAN, después de un argumento ligeramente borracho en un bar. Sin embargo, la cerveza empapada sus orígenes, es una idea maravillosamente elegante: Una IA trabaja para crear, digamos, imágenes realistas, mientras que una segunda IA ​​analiza los resultados y trata de determinar si las imágenes son reales o falsas. "Se puede pensar en esto como un artista y un crítico de arte", dice Goodfellow. "El modelo generativo quiere engañar al crítico de arte, engañando al crítico de arte para que piense que las imágenes que genera son reales". Como la segunda IA ​​está trabajando tan duro para identificar las imágenes como falsas, la primera aprende a imitar lo real de una manera que no podía 'T por su cuenta. En el proceso, estas dos redes neuronales pueden empujar a AI hacia un día en que las computadoras declaran independencia de sus maestros humanos.

Yann LeCun, que supervisa la investigación de AI en Facebook, ha llamado a GANs "la idea más fresca en el aprendizaje profundo en los últimos 20 años". El aprendizaje profundo es la raza de la IA que está cambiando la dirección de todas las empresas más grandes de Internet, Y Amazon, así como Facebook. Las ideas de Goodfellow aún están en desarrollo, pero se han extendido rápidamente por toda la comunidad de AI. Muchos investigadores, entre ellos LeCun, creen que pueden conducir a un "aprendizaje sin supervisión", una enorme aspiración en el campo de la investigación de la IA: el aprendizaje de máquinas sin ayuda directa de los seres humanos.

Entendiéndolo
La idea vino a Goodfellow en un bar de Montreal llamado Les 3 Brasseurs, o The 3 Brewers. Su amigo Razvan Pascanu, ahora investigador en DeepMind, otro laboratorio de IA de Google, había terminado su doctorado, y muchos otros amigos se habían reunido para verlo. Uno de ellos describía un nuevo proyecto de investigación, un esfuerzo para determinar matemáticamente todo lo que entra en una fotografía. La idea era entonces alimentar estas estadísticas en una máquina para que pudiera crear fotografías por sí mismo. Un poco borracho, Goodfellow dijo que esto nunca funcionaría, que había demasiadas estadísticas a considerar, que nadie podría registrarlas todas. Pero en el momento, decidió que había una mejor manera: Las redes neuronales podrían enseñar a la máquina cómo construir fotos realistas.

Una red neuronal es un complejo sistema matemático que aprende tareas analizando grandes cantidades de datos, desde reconocer caras en fotos hasta entender palabras habladas. De pie allí en el bar, Goodfellow decidió que mientras una red neuronal aprendía a construir fotos realistas, un segundo podía jugar al adversario, tratando de determinar si estas imágenes eran falsas y, en esencia, alimentando sus juicios en la primera. De esta manera, dijo, podría eventualmente enseñar a la primera red neuronal a generar imágenes falsas indistinguibles de lo real.

Un argumento siguió. Los amigos de Goodfellow estaban igualmente convencidos de que este método tampoco funcionaría. Así que cuando llegó a casa esa noche, él construyó la cosa. "Me fui a casa todavía un poco borracho. Y mi novia ya se había ido a dormir. Y yo estaba sentado allí pensando: 'Mis amigos en el bar están equivocados' ", recuerda. "Me quedé despierto y codifiqué GANs en mi computadora portátil." La forma en que lo dice, el código funcionó en el primer intento. "Eso fue realmente, muy afortunado", dice, "porque si no hubiera funcionado, podría haber abandonado la idea".

Él y algunos otros investigadores publicaron un artículo describiendo la idea más adelante ese año. En los tres años transcurridos desde entonces, cientos de otros artículos han explorado el concepto. En ese primer trabajo, las dos redes neuronales trabajaron para producir un sistema que pudiera generar imágenes realistas de dígitos manuscritos. Ahora, los investigadores están aplicando la idea de fotos de todo, desde gatos a volcanes a galaxias enteras. Incluso ayudó con experimentos de astronomía y ayudó a simular la física de partículas.

Pero esto todavía es una cosa muy difícil de sacar. Implica entrenar no sólo una red neuronal, sino dos al mismo tiempo. En Google, mientras construye un nuevo grupo enfocado en GANs e investigación relacionada, Goodfellow espera refinar el proceso. "Lo principal que yo, como investigador de aprendizaje de máquinas, tengo que lidiar con esto es llegar a una forma de hacerlos muy confiables para entrenar", dice.

El resultado final: servicios que son mucho mejores en no sólo la generación de imágenes y sonidos, pero el reconocimiento de imágenes y sonidos, un camino a los sistemas que pueden aprender más con menos ayuda de los seres humanos. "Los modelos aprenden a entender la estructura del mundo", dice Goodfellow. "Y eso puede ayudar a los sistemas a aprender sin que se les diga explícitamente".

Los GANs podrían incluso ofrecer un aprendizaje sin supervisión, algo que en realidad no existe hoy en día. Actualmente, la red neural puede aprender a reconocer gatos analizando varios millones de fotos de gatos, pero los humanos deben identificar cuidadosamente las imágenes y etiquetarlas como fotos de gatos. La gente todavía está muy en la mezcla, y eso es a menudo un problema, si el tema es sesgo o la escala pura del trabajo humano necesario para entrenar a una IA. Investigadores como LeCun están empujando hacia sistemas que pueden aprender sin esa participación humana pesada, algo que podría acelerar la evolución de la IA.

Pero eso es sólo el comienzo. Los GANs traen tantas otras posibilidades también. David Kale, investigador de IA en la Universidad del Sur de California, cree que la idea podría ayudarlo a él ya sus colegas investigadores a crear AI de atención médica sin infringir la privacidad del paciente. Básicamente, los GAN podrían producir registros médicos falsos. Los sistemas de aprendizaje de máquina podrían entonces entrenar en estas falsificaciones algo que la cosa verdadera. "En lugar de descartar registros de pacientes en Internet para que todos jueguen con ellos, ¿por qué no entrenamos GANs en esos datos y creamos un conjunto de datos totalmente sintético y ponemos esto a disposición de los investigadores?", Dice Kale. "¿Y por qué no lo hacemos de manera que cualquier modelo entrenado en ese conjunto de datos sea indistinguible de uno entrenado en los datos originales?"

Aunque muchos investigadores están explorando las ideas detrás de GANs, está diciendo que Goodfellow tiene la intención de construir su grupo en Google en particular. Fue uno de los investigadores que dejó Google para OpenAI, un laboratorio que prometió compartir abiertamente sus investigaciones con el mundo en general. Pero menos de un año después, regresó a Google, porque ahí es donde estaban todos sus colaboradores. "No es divertido pasar todo el día en videollamadas", dice. "No es la mejor manera de hacer las cosas."

Compartir es importante. Pero también lo es la estrecha colaboración, tanto si eres un investigador de AI o una red neuronal.

Cade Metz
Wired