El test de Turing es una de las peores cosas que le ha pasado a la IA

La investigación en inteligencia artificial (IA) siempre ha consistido en intentar construir máquinas que piensen, al menos de alguna manera. Pero la cuestión de lo parecidas que la inteligencia artificial y la biológica deberían ser ha dividido a los expertos durante décadas. Los primeros esfuerzos para construir modelos de IA involucraron procesos de toma de decisiones y sistemas de almacenamiento de información vagamente inspirados en la forma en la que parecía que los seres humanos pensábamos. Y las redes neuronales profundas actuales en día también se inspiran un poco en la forma en la que las neuronas interconectadas se activan en el cerebro. Pero esa inspiración generalizada tiene sus limitaciones.

A la mayoría de las personas que se dedican a la IA no les preocupan demasiado estos detalles, afirma el neurocientífico y emprendedor tecnológico Jeff Hawkins, y es algo que quiere cambiar. Hawkins lleva casi 40 años a caballo entre la neurociencia y de la IA. En 1986, después de trabajar unos años como ingeniero de software en Intel, se fue a la Universidad de California en Berkeley (EE. UU.), para empezar su doctorado en neurociencia, con la esperanza de descubrir cómo funcionaba la inteligencia. Pero su ambición se chocó con una pared cuando le dijeron que allí no había nadie capaz de ayudarle con un proyecto tan grande. Frustrado, cambió Berkeley por Silicon Valley (EE. UU.) y en 1992 fundó Palm Computing, donde desarrolló el precursor de los teléfonos inteligentes actuales denominado PalmPilot.

Pero su fascinación por los cerebros nunca desapareció. Quince años después, regresó a la neurociencia y creó el Centro Redwood de Neurociencia Teórica (actualmente en Berkeley). Hawkins también dirige Numenta, una empresa de investigación en neurociencia en Silicon Valley. Allí, su equipo y él estudian la neocorteza o neocórtex, la parte del cerebro responsable de todo lo que asociamos con la inteligencia. Después de una serie de avances en los últimos años, Numenta cambió su enfoque centrado en el cerebro hacia la IA, aplicando lo que había aprendido sobre la inteligencia biológica a las máquinas.

Las ideas de Hawkins han inspirado a grandes nombres de la IA, incluido Andrew Ng, y han recibido elogios de personas como Richard Dawkins, quien escribió el entusiasta prólogo del nuevo libro de Hawkins A Thousand Brains: A New Theory of Intelligence, publicado el 2 de marzo.

Tuve una larga charla con Hawkins por Zoom sobre lo que su investigación sobre el cerebro humano significa para la inteligencia de las máquinas. No es el primer emprendedor de Silicon Valley que cree que tiene todas las respuestas, y es probable que no todos estén de acuerdo con sus conclusiones. Pero sus ideas podrían revolucionar la IA.

¿Por qué cree que la IA actual va en una dirección equivocada?

Es una pregunta complicada. A ver, yo no critico la IA actual. Creo que es genial; es útil. Simplemente no creo que sea inteligente.

Mi principal interés es el cerebro. Me enamoré de los cerebros hace décadas. He tenido esta opinión durante mucho tiempo. Consiste en que, antes de crear la IA, primero tenemos que descubrir qué es realmente la inteligencia, y la mejor manera de hacerlo es estudiando el cerebro.

En 1980, o por ahí, me pareció que los enfoques relacionados con la IA no iban a llegar a una verdadera inteligencia. Y llevo pensado lo mismo en todas las diferentes fases de la IA; no es algo nuevo para mí.

He visto el progreso que se ha logrado recientemente con el aprendizaje profundo y es espectacular, es bastante impresionante, pero eso no quita el hecho de que resulta fundamentalmente deficiente. Creo que sé lo que es la inteligencia; creo que sé cómo lo consigue el cerebro. Y la IA no está haciendo lo que hacen el cerebro.

¿Está diciendo que para construir una IA deberíamos recrear el cerebro de alguna manera?

No, no creo que vayamos a construir réplicas del cerebro. La idea de imitar el cerebro no me gusta nada. Pero tendremos que construir máquinas que funcionen con principios similares. Los únicos ejemplos de sistemas inteligentes que tenemos son los sistemas biológicos. ¿Por qué no estudiar eso?

Es como si le mostrara un ordenador por primera vez y usted dijera: "¡Eso es increíble! Voy a construir algo así". Pero en vez de analizarlo y tratar de averiguar cómo funciona, simplemente empezara a intentar crear algo desde cero.

Entonces, ¿qué es lo que hace el cerebro que resulta crucial para la inteligencia que cree que la IA también debe hacer?

Hay cuatro atributos mínimos de inteligencia, una especie de línea de base. El primero es aprender a través del movimiento: no podemos sentir todo lo que nos rodea a la vez. Tenemos que movernos para construir un modelo mental de las cosas, incluso si solo movemos los ojos o las manos. Esto se denomina materialización.

A continuación, decenas de miles de columnas corticales captan esta información sensorial, cada una con una imagen parcial del mundo. Compiten entre sí y se combinan a través de una especie de sistema de votación para construir una visión general. Esa es la idea de los mil cerebros. En un sistema de inteligencia artificial, esto podría suponer que una máquina controle diferentes sensores (visión, tacto, radar, etc.) para obtener un modelo más completo del mundo. Aunque, normalmente habrá muchas columnas corticales para cada sentido, como la visión.

Luego está el aprendizaje continuo, con el que aprendemos cosas nuevas sin olvidar las anteriores. Los sistemas de IA actuales no pueden hacer esto. Y finalmente, estructuramos el conocimiento utilizando distintos marcos de referencia, lo que significa que nuestro conocimiento del mundo depende de nuestro punto de vista. Si deslizo mi dedo por el borde de mi taza de café, puedo predecir que sentiré su borde, porque sé dónde está mi mano en relación con la taza.

Su laboratorio ha pasado recientemente de la neurociencia a la IA. ¿Se corresponde eso con la teoría de los mil cerebros?

Bastante. Hasta hace dos años, en nuestra oficina todo era neurociencia. Luego hicimos la transición. Nos pareció que habíamos aprendido lo suficiente sobre el cerebro para poder empezar a aplicarlo a la IA.

¿Qué tipo de trabajo de IA llevan a cabo?

Una de las primeras cosas que analizamos fue la dispersión. En cualquier momento dado, solo el 2 % de nuestras neuronas se activan; la actividad se dispersa. Hemos estado aplicando esta idea a las redes de aprendizaje profundo y estamos obteniendo resultados fascinantes, como una aceleración 50 veces mayor en las redes existentes. La dispersión también ofrece redes más robustas, menor consumo de energía. Actualmente estamos trabajando en el aprendizaje continuo.

Es interesante que incluyan el movimiento como base para la inteligencia. ¿Eso significa que una IA necesita un cuerpo? ¿Debería ser un robot?

En el futuro, creo que la distinción entre IA y robótica desaparecerá. Pero en este momento prefiero la palabra "materialización", porque cuando se habla de robots se crean imágenes de robots similares a humanos, y eso no es a lo que me refiero. La clave consiste en que la IA debería tener sensores y poder moverlos a su voluntad y en función de las cosas que modela. Pero también podría ser una IA virtual moviéndose por internet.

Esta idea difiere bastante de muchos otros enfoques populares sobre la inteligencia, de un cerebro incorpóreo.

El movimiento es realmente interesante. El cerebro utiliza los mismos mecanismos para mover el dedo sobre una taza de café, o mover los ojos, o incluso cuando pensamos en un problema conceptual. Nuestro cerebro se mueve a través de los marcos de referencia para recordar los datos que ha almacenado en diferentes ubicaciones.

La clave es que cualquier sistema inteligente, independientemente de su forma física, aprende un modelo del mundo detectando diferentes partes del mismo, moviéndose en ese mundo. Eso es fundamental; no se puede escapar de eso. Puede ser un robot humanoide, un robot serpiente, un coche, un avión o, ya sabe, simplemente un ordenador en nuestro escritorio navegando por internet, es igual.

 

 

¿Qué opinan los investigadores de IA sobre estas ideas?

La gran mayoría de los investigadores de IA realmente no comparten la idea de que el cerebro es importante. Quiero decir que sí, que la gente descubrió las redes neuronales hace un tiempo y el cerebro era parte de su inspiración. Pero la mayoría no intenta replicar el cerebro. Simplemente lo que funciona, funciona. Y las redes neuronales actuales funcionan suficientemente bien.

Además, la mayoría de investigadores de IA tienen muy poca comprensión de la neurociencia. No es de extrañar, porque es muy difícil. No es algo sobre lo que simplemente pasamos un par de días leyendo. La propia neurociencia lleva décadas luchando por comprender qué diablos pasa en el cerebro.

Pero uno de los grandes objetivos para escribir este libro fue iniciar una conversación sobre la inteligencia que no estamos teniendo. Quiero decir, mi sueño es que todos los laboratorios de IA del mundo lean este libro y empiecen a debatir estas ideas. ¿Las aceptamos? ¿No estamos de acuerdo? Eso no ha sido posible antes. Es decir, esta investigación del cerebro tiene menos de cinco años. Espero que sea un verdadero punto de inflexión.

¿Cómo cree que estas conversaciones cambiarían la investigación de la IA?

Como campo, la IA no ha tenido una definición de lo que es la inteligencia. Sabe, el test de Turing es una de las peores cosas que han pasado, en mi opinión. Incluso hoy en día, todavía nos centramos mucho en los puntos de referencia y en los trucos inteligentes. No quiero decir que no sea útil. Una IA capaz de detectar células cancerosas es genial. ¿Pero acaso es eso inteligencia? No. En el libro utilizo el ejemplo de los robots en Marte construyendo un hábitat para los humanos. Intente imaginar qué tipo de inteligencia artificial se requiere para hacer eso. ¿Es eso posible? Es totalmente posible. Creo que a finales de siglo tendremos máquinas de ese tipo. La pregunta es cómo nos alejamos de algo como: "Aquí hay otro truco" hacia los fundamentos necesarios para construir el futuro.

¿En qué se equivocó Turing cuando comenzó la conversación sobre la inteligencia de las máquinas?

Solo quiero decir que si volvemos atrás y releemos su trabajo original, veremos que Turing básicamente intentaba que la gente dejara de discutir con él sobre si se podía construir una máquina inteligente. Él decía algo como: "Aquí hay algunas cosas en las que hay que pensar, dejen de molestarme". Pero el problema es que se centra en una única tarea. ¿Puede una máquina hacer algo que hace un ser humano? Y eso se ha extendido a todos los objetivos que hemos establecido para la IA. Así que jugar a Go fue un gran logro para la IA. ¿En serio? [risas] Quiero decir, está bien.

 

El problema con todas las métricas basadas en el rendimiento, y la prueba de Turing es una de ellas, es que simplemente evitan la conversación o la gran pregunta sobre qué es un sistema inteligente. Si se consigue engañar a alguien, si se puede resolver una tarea con algún tipo de ingeniería inteligente, entonces se ha logrado ese punto de referencia, pero no necesariamente se ha hecho un progreso hacia una comprensión más profunda de lo que significa ser inteligente.

¿El enfoque en los logros similares a los humanos también es un problema?

Creo que en el futuro, muchas máquinas inteligentes no harán nada de lo que hacen los humanos. Muchas serán muy simples y pequeñas, ya sabe, como un ratón o un gato. Por lo tanto, centrarse en el lenguaje y la experiencia humana y todas estas cosas para pasar la prueba de Turing es bastante irrelevante para construir una máquina inteligente. Es relevante si se quiere construir una máquina similar a un ser humano, pero no creo que siempre queramos hacer eso.

 

 

En su libro cuenta la anécdota de cómo intentó convencer a su jefe en Intel sobre la idea de los ordenadores portátiles, pero que él no podía ver para qué servirían. Entonces, ¿qué harán estas futuras IA?

No lo sé. Nadie lo sabe. Pero no tengo ninguna duda de que encontraremos montones de cosas útiles que hacer para las máquinas inteligentes, igual que lo hicimos con los teléfonos y los ordenadores. En la década de 1940 o 1950, nadie anticipó lo que harían los ordenadores. Lo mismo pasará con la IA. Será buena. Algunas malas, pero la mayoría buenas.

Pero yo prefiero pensar en esto a largo plazo. En vez de preguntar "¿De qué sirve construir máquinas inteligentes?", me pregunto: "¿Cuál es el propósito de la vida?" Vivimos en un universo enorme en el que somos pequeños puntos. He tenido este signo de interrogación en mi cabeza desde que era un niño. ¿Por qué nos preocupamos por algo? ¿Por qué hacemos todo esto? ¿Cuál debería ser nuestro objetivo como especie?

Creo que no se trata de preservar el acervo genético, sino de preservar el conocimiento. Y si lo piensa de esta manera, las máquinas inteligentes son esenciales para eso. No vamos a estar aquí para siempre, pero nuestras máquinas podrían estarlo.

Lo encuentro inspirador. Quiero un propósito para mi vida. Creo que la IA, tal y como la veo yo, no la IA actual, es una forma de preservarnos básicamente a nosotros mismos durante un tiempo y para un lugar que aún no conocemos.

 

Fuente: technologyreview.es

RoboticsLab es una división de NFM Robotics dedicada a iniciativas de responsabilidad social sin fines de lucro, así como a la investigación, desarrollo e innovación en el área de la Robótica.

Tipo de Moneda
PEN Sol