ENTREVISTA A EZEQUIEL DI PAOLO
Por Ana Paolini

FotografĆa de Lilly Schwartz, 2013.
Ezequiel Di Paolo nació en Buenos Aires en 1970. Estudió FĆsica en la Universidad de Buenos Aires, luego hizo una MaestrĆa en IngenierĆa Nuclear en el Instituto Balseiro y se doctoró en Ciencias de la Computación e Inteligencia Artificial en la Universidad de Sussex, Inglaterra. Actualmente da clases e investiga en Ikerbasque (Fundación Vasca para la Ciencia) y es miembro del Centro para la Neurociencia Computacional y Robótica (CCNR) y el Centro de Investigación en Ciencia Cognitiva (COG) en Sussex.
Primero me gustarĆa que expliques un poco quĆ© es el āembodimentā y por quĆ© la teorĆa (aĆŗn en circulación) que separa la mente del cuerpo es incorrecta si queremos desarrollar una mente humana artificial. ĀæTiene el āembodimentā conexión teórica con El error de Descartes de Antonio Damasio?
Lo primero que conviene aclarar es que no hay una noción unificada de āembodimentā ni una Ćŗnica critica que merezca calificarse como āembodiedā. Hay muchas y con diferencias importantes entre ellas y se han venido desarrollando durante las dos o tres Ćŗltimas dĆ©cadas, aunque algunos precursores pueden encontrarse mĆ”s atrĆ”s con el nacimiento mismo de las ciencias cognitivas y la inteligencia artificial como disciplinas a finales de la segunda guerra mundial. Conviene entonces primero aclarar quĆ© es lo que se critica cuando se hace algĆŗn Ć©nfasis en la noción de corporeidad. Se critica una noción cognitivista y computacionalista de la cognición (mĆ”s en general de la mente misma). SegĆŗn esta noción, la cognición es una forma de procesamiento de información que ocurre en nuestro cerebro. Pensar, decidir, evaluar, reconocer, conversar, escribir, percibir, jugar, etc. son desde esta perspectiva primordialmente distintas formas de procesamiento de información puestas al servicio de un agente cognitivo. Esta idea es notoriamente cartesiana, porque asume una separación clara entre mundo cognoscible y agente que conoce, y adicionalmente una separación entre ādetallesā de cómo se implementa el procesamiento de información (cuerpo) y la agencialidad cognitiva que hace uso de esa información (sujeto). Esta concepción, descripta de forma rĆ”pida, es todavĆa prevalente en todas las ciencias que estudian la cognición (psicologĆa, neurociecia, inteligencia artificial, etc.).
Como verĆ”s, hay mucho para criticar, y sucede que muchas de las crĆticas pasan por seƱalar la artificialidad de esta concepción apuntando a conceptos de corporeidad. Por ejemplo, la concepción computacionalista sugiere que para entender cómo movemos el cuerpo (supongamos que nos interesa estudiar a una tenista) tenemos que concebir una serie de modelos internos que permiten al cerebro calcular la fuerza que deben ejercer los distintos mĆŗsculos para logra mover piernas y brazos, equilibrar la postura, acelerar o frenar movimientos de forma de pegar con la raqueta a una pelota que se mueve muy rĆ”pido y prĆ”cticamente no deja ningĆŗn tiempo para efectuar semejantes cĆ”lculos. En cambio, si atendemos a la organización de los movimientos del cuerpo, descubrimos que tambiĆ©n hay mucha āinteligenciaā en la materialidad de tendones, huesos y mĆŗsculos, en los circuitos espinales que controlan reflejos y en las sinergias que se producen entre distintas partes del cuerpo (si levantamos el brazo derecho, inmediatamente se tensan mĆŗsculos dorsales y de la pierna en el lado izquierdo, y asĆ). De hecho, parte de nuestro trabajo ha sido demostrar que esa inteligencia de la organización del cuerpo puede explicar movimientos sin necesidad de modelos internos, es decir sin necesidad de que exista un computador central dictando cómo el cuerpo se debe mover.
Este es sólo un ejemplo. CrĆticas semejantes se pueden encontrar en el Ć”rea de lingüĆstica cognitiva (los trabajos clĆ”sicos de Lakoff y Johnson, sobre la corporeidad de las metĆ”foras y esquemas conceptuales ā avanzar como metĆ”fora de progreso, formas de categorización basadas en el esquema dentro/fuera del cuerpo, etc.). TambiĆ©n en el Ć”rea de robótica donde es efectivo inspirarse en cómo se mueven los insectos, aprovechando la morfologĆa de los sensores, la dinĆ”mica propia de sus cuerpos, y las regularidades del ambiente para asĆ construir robots capaces de moverse en ambiente reales. En contraste las mĆ”quinas construidas en base a la concepción computacional de la cognición pueden jugar al ajedrez (usando un poder computacional de bĆŗsqueda masivo) pero no pueden hacer que un robot pueda cruzar la calle.
Este tipo de crĆticas pueden resumirse de esta manera: La mente no es algo general que pueda estudiarse sin atención a la corporeidad como se pretende con nociones genĆ©ricas como el procesamiento de información.
Pero hay mĆ”s. En nuestro trabajo, en lo que se llama el enfoque enactivo, intentamos ir mĆ”s allĆ” y preguntarnos si no nos quedamos cortos simplemente sugiriendo que estudiar el cuerpo es meramente conveniente para destrabar el avance de las ciencias cognitivas. Nosotros proponemos en cambio que es esencial, en el sentido estricto de la palabra. O sea que proponemos una visión de la mente cuyas caracterĆsticas constitutivas son precisamente dadas por el hecho de ser un sujeto corporizado, frĆ”gil, precario y en constantes relaciones de necesidad con su entorno (fĆsico y social). Esto serĆa el āembodimentā profundo y mĆ”s radical, el cual intenta proponer que lo esencial de la mente es que las cosas nos importan y que nos importan a sujetos corporizados reales y con experiencias vitales, habitantes de mundo, no meramente de un ambiente. Sino no podemos distinguir a un sujeto mental de una computadora que tambiĆ©n procesa información. Lo constitutivo de lo cognitivo es la materialidad y precariedad del cuerpo en el mundo que estĆ” constantemente constituyĆ©ndose a sĆ mismo como cuerpo y co-constituyendo el mundo junto a otros cuerpos. El enfoque enactivo radicaliza lo que es inicialmente una crĆtica metodológica (el cuerpo importa si queremos avanzar nuestro conocimiento de la mente) a una crĆtica conceptual (lo esencial de la mente es el cuerpo).
Hace unos aƱos un investigador llamado John Dylan Haynes (del Instituto Max Planck de BerlĆn) investigó la toma de decisiones y desarrolló la teorĆa de que muchas decisiones se toman primero a nivel inconsciente y luego pasan a nivel consciente. Si bien recibió crĆticas y probablemente aĆŗn se este investigando sobre este tema Āæpor quĆ© cuando se habla (y se piensa) en inteligencia artificial siempre es sobre como generar una consciencia pero nunca se habla sobre un inconsciente?
La pregunta tiene una respuesta simple y no demasiado interesante. Se habla de generar una conciencia porque eso serĆa una prueba clara de que el proyecto de inteligencia artificial ha alcanzado cierto Ć©xito. Muchos ven al tema de la conciencia como una de las metas principales ya que lo cierto es que nadie sabe cómo llegar a ella. Que se considere como tal tiene que ver con el enfoque computacionalista (que es una variante del funcionalismo) segĆŗn el cual la conciencia es un misterio. Si se lograra instanciar el procesamiento de información necesario para tomar una decisión, Āæpara quĆ©, desde esta perspectiva, serĆa necesario que haya conciencia?
El enfoque enactivo tiene un pilar fuerte en el estudio de la experiencia humana, ya sea a travĆ©s de tradiciones acadĆ©micas como la fenomenologĆa o prĆ”cticas como la psiquiatrĆa, el psicoanĆ”lisis, terapias corporales, etc, y tambiĆ©n tradiciones de meditación. Lo que se aprende a partir de estas fuentes es la inmensa variedad de experiencias que normalmente reducimos a una categorĆa binaria consciente/inconsciente. Y desde esta perspectiva alternativa puede tematizarse de manera mĆ”s explĆcita cuĆ”ndo podemos esperar que ciertas actividades tengan una manifestación a nivel de conciencia corporal o a nivel de consciencia explĆcita y reflexiva. Pueden proponerse conexiones entre las explicaciones enactivas y las caracterĆsticas estructurales fenomenológicas de diversas formas conciencia, como lo hace la teorĆa sensorimotora de la percepción que propone que los aspectos cualitativos de distintas modalidades sensoriales (tacto, visión, audición), dependen de las relaciones y regularidades sensorimotoras que ejerce nuestro cuerpo en relación a su mundo.
Partiendo de la idea de que el funcionamiento de las redes sociales actuales no es algo enteramente nuevo sino que los humanos funcionamos de esa forma ācolectivaā desde siempre o que podemos encontrar un funcionamiento similar entre las neuronas o los genes; y suponiendo que todo comportamiento humano que presente algĆŗn patrón en internet es susceptible de ser traducido a una fórmula matemĆ”tica y al lenguaje binario ĀæEs posible pensar a las redes sociales como un inmenso laboratorio donde los cientĆficos pueden ponen a prueba diversas hipótesis -desde biológicas a filosóficas- y asĆ aprender mejor cómo nos comportamos y como funciona nuestra mente? ĀæSon las redes sociales una instancia previa necesaria para construir un ser humano sintĆ©tico?
Creo que entiendo la pregunta pero no estoy seguro. Si hablamos de un tema de complejidad, las redes sociales pueden presentar caracterĆsticas estructurales y dinĆ”micas que se asemejan a otros sistemas adaptivos complejos (redes de intercambio comercial, redes de comunicación con feromonas en insectos sociales, etc.). La semejanza es mayor cuando menos āhumanoā sea el usuario, es decir cuando reduzca sus acciones en estas redes a meros patrones predecibles y representables mediante reglas. Es precisamente ese tipo de representación la que estĆ” detrĆ”s del aprendizaje del cómo actĆŗan los usuarios de redes sociales para poder por ejemplo ofrecerles la información que supuestamente mĆ”s les interesa y orientar los avisos comerciales. Se trata nuevamente de entender al comportamiento humano como el de una mĆ”quina. Y en la medida en que las redes sociales a veces hacen precisamente que nos comportemos de tal manera, esos modelos son efectivos. La concepción computacional e individualista del sujeto humano crea formas de interacción y normatividades que obligan a que uno se comporte (y eventualmente se transforme) en un mecanismo que se ajusta a tal concepción. En otras palabras, el sujeto es modificado para que se asemeje a la concepción pobre e inacabada, pero funcional a un sistema, que se tiene de Ć©l.
De manera conversa, en la medida en que los usuarios de redes sociales rompen este patrón y son capaces de crear nuevas formas de interacción que desafĆan a la normatividad implĆcita en el funcionamiento de esas redes, son ellos los que entonces pueden llevar a estos fenómenos colectivos a patrones no asimilables a otras redes complejas en la naturaleza.
Se ha hablado mucho sobre el Test de Turing y segĆŗn Wikipedia existieron dos casos en que la prueba fue superada. En ambos una parte importante del jurado no logró diferenciar si las respuestas provenĆan de una mĆ”quina o de una persona. Tenemos tambiĆ©n el caso de las androides japonesas -Komodoroid y Otonaroid- que prestan servicios en Museo Nacional de Ciencia y TecnologĆa de Tokio. ĀæQuĆ© tan cerca estamos de disolver las diferencias entre lo vivo y lo programado? ĀæEs posible pensar en mĆ”quinas capaces de mentir, desear, soƱar, sentir?
El Test de Turing surgió precisamente porque el paradigma computacionalista no tiene una concepción intrĆnseca de quĆ© es la cognición. Por lo tanto no puede decir: cuando hayamos hecho esto y logrado aquello habremos diseƱado un ser cognitivo artificial. Debe basarse entonces en un test comparativo: si logramos engaƱar a la gente de forma tal que ellos crean que estĆ”n tratando con una mente, entonces habremos alcanzado nuestra meta. Como concepción cientĆfica el Test de Turing es bastante dĆ©bil. Ha tenido su influencia importante en guiar distintas Ć”reas de investigación como la comprensión del lenguaje natural. Pero es mĆ”s bien un sĆntoma de una teorĆa incompleta que otra cosa (imaginate unos ingenieros aeronĆ”uticos que no tuvieran un criterio se quĆ© significa que una mĆ”quina pueda volar y decidieran someter sus diseƱos al veredicto de jueces a ver si les parece que vuela o no ā no se considerarĆa una empresa seria).
Tus preguntas tienen una respuesta rĆ”pida. No estamos nada cerca de construir una mĆ”quina como la que describĆs. Hace unos aƱos yo propuse que nuestra meta deberĆa ser construir un robot al que le importe mĆnimamente lo que le pase. Que cuando ande mal y choque con las paredes no sea yo el Ćŗnico frustrado, sino el robot tambiĆ©n. Si bien hemos desarrollado algunos modelos, esa meta mucho mĆ”s modesta sigue sin alcanzarse. Por ese motivo me dĆ cuenta que falta mucho para primero siquiera poder formular las preguntas correctamente. El enfoque enactivo nos da algunas herramientas que ligan precisamente la organización del cuerpo biológico en su autonomĆa y precariedad con la noción bĆ”sica de āsense-makingā o bĆŗsqueda de sentido. Una bacteria que distingue la dirección dónde crece el gradiente de azĆŗcar estĆ” haciendo sense-making. Porque el azĆŗcar es vital para la bacteria. Un robot que sigue una luz, en principio no, porque seguir la luz no es esencial para su constitución. En un cuarto a oscuras sigue siendo el mismo robot. No le importa. Pero es perfectamente concebible diseƱar una mĆ”quina precaria que deba seguir la luz para poder seguir siendo la mĆ”quina que es. Tal mĆ”quina estarĆa haciendo sense-making porque lo que hace le importa no solo al diseƱador, se puede argumentar que a la mĆ”quina en sĆ misma.
Hace muy poco tiempo me enterƩ de la existencia de un libro llamado La era de las mƔquinas espirituales escrito en
1998 por quiĆ©n ahora es Director de IngenierĆa de Google, Ray Kurzweil.
ĀæEs plausible la relación que establece entre la teorĆa de la evolución, su aplicación en la inteligencia (tanto humana como artificial) y la relación con el tiempo? Por otro lado algunas de las predicciones sobre nuestro presente son bastante acertadas. ĀæQuĆ© pensĆ”s de las predicciones que hace del 2019 en adelante?
En Google tienen una computadora que funciona con bits cuÔnticos: los qubits ¿Qué opinión tenés de la computación cuÔntica y de su posible aplicación al desarrollo de inteligencia artificial?
ĀæPor quĆ© ahora hay tantos cientĆficos temerosos (entre ellos Stephen Hawking) del posible desarrollo de la inteligencia artificial?
Estas son varias preguntas. Cada una merecerĆa una respuesta separada. En cuanto a avances tecnológicos, no hay duda que pueden contribuir mucho. Pero en general yo no considero que el avance en sĆ traiga soluciones si no tenemos al menos bien planteadas las preguntas. Durante dĆ©cadas se ha venido confiando en semejantes avances para reemplazar el vacĆo teórico que caracteriza a la noción computacionalista de la mente. Y las predicciones de que los robots inteligentes y malvados estĆ”n a la vuelta de la esquina se vienen haciendo desde los aƱos 50 (muchas veces por la misma gente). No es cierto ni remotamente (lo que no implica que no haya otros motivos de preocupación respecto al uso de ciertas tecnologĆas por ejemplo para el procesamiento y almacenamiento masivo de datos personales, o para surveillance). El temor fundado de algunos cientĆficos no es tanto, en mi opinión, por un eventual Ć©xito de la inteligencia artificial, sino por el uso de ciertas tecnologĆas como algoritmos de toma de decisión no muy complejos que emergen de esta disciplinar y que ahora pueden aplicarse muy eficientemente a sistemas con un alto impacto potencial (caso extremo: el uso de reconocimiento de patrones visuales en drones que puede usarse para automatizar la decisión de disparar o no a un blanco).
En cierto sentido tales escenarios sĆ son preocupantes y son el resultado de tecnologĆas que surgen de la inteligencia artificial como disciplina tĆ©cnica. Lo interesante del enfoque enactivo es que desde el comienzo plantea la cuestión de la cognición como ligada a la cuestión de la autonomĆa vital del agente cognitivo. De esta manera no puede desligarse de una preocupación Ć©tica respecto a cómo se concibe al sujeto y cómo se aprende de Ć©l. Si construimos el robot que necesita ir hacia la luz para seguir viviendo y por lo tanto sus acciones le importan tanto a Ć©l como a mi, no puedo simplemente apagarlo al final del dĆa. De forma inmediata con la creación de un ser artificial surgen responsabilidades Ć©ticas tanto hacia ese ser como hacia su impacto en el mundo.
Para seguir leyendo y aprendiendo:
Blog personal de Ezequiel Di Paolo
El enactivismo y la naturalización de la mente

