top of page

ENTREVISTA A EZEQUIEL DI PAOLO

 

 

 

Por Ana Paolini

                                                                                                        Fotografía de Lilly Schwartz, 2013.

 

 

Ezequiel Di Paolo nació en Buenos Aires en 1970. Estudió Física en la Universidad de Buenos Aires, luego hizo una Maestría en Ingeniería Nuclear en el Instituto Balseiro y se doctoró en Ciencias de la Computación e Inteligencia Artificial en la Universidad de Sussex, Inglaterra. Actualmente da clases e investiga en Ikerbasque (Fundación Vasca para la Ciencia) y es miembro del Centro para la Neurociencia Computacional y Robótica (CCNR) y el Centro de Investigación en Ciencia Cognitiva (COG) en Sussex.

 

Primero me gustaría que expliques un poco qué es el “embodiment” y por qué la teoría (aún en circulación) que separa la mente del cuerpo es incorrecta si queremos desarrollar una mente humana artificial. ¿Tiene el “embodiment” conexión teórica con El error de Descartes de Antonio Damasio?

 

Lo primero que conviene aclarar es que no hay una noción unificada de “embodiment” ni una única critica que merezca calificarse como “embodied”. Hay muchas y con diferencias importantes entre ellas y se han venido desarrollando durante las dos o tres últimas décadas, aunque algunos precursores pueden encontrarse más atrás con el nacimiento mismo de las ciencias cognitivas y la inteligencia artificial como disciplinas a finales de la segunda guerra mundial. Conviene entonces primero aclarar qué es lo que se critica cuando se hace algún énfasis en la noción de corporeidad. Se critica una noción cognitivista y computacionalista de la cognición (más en general de la mente misma). Según esta noción, la cognición es una forma de procesamiento de información que ocurre en nuestro cerebro. Pensar, decidir, evaluar, reconocer, conversar, escribir, percibir, jugar, etc. son desde esta perspectiva primordialmente distintas formas de procesamiento de información puestas al servicio de un agente cognitivo. Esta idea es notoriamente cartesiana, porque asume una separación clara entre mundo cognoscible y agente que conoce, y adicionalmente una separación entre “detalles” de cómo se implementa el procesamiento de información (cuerpo) y la agencialidad cognitiva que hace uso de esa información (sujeto). Esta concepción, descripta de forma rápida, es todavía prevalente en todas las ciencias que estudian la cognición (psicología, neurociecia, inteligencia artificial, etc.).

 

Como verás, hay mucho para criticar, y sucede que muchas de las críticas pasan por señalar la artificialidad de esta concepción apuntando a conceptos de corporeidad. Por ejemplo, la concepción computacionalista sugiere que para entender cómo movemos el cuerpo (supongamos que nos interesa estudiar a una tenista) tenemos que concebir una serie de modelos internos que permiten al cerebro calcular la fuerza que deben ejercer los distintos músculos para logra mover piernas y brazos, equilibrar la postura, acelerar o frenar movimientos de forma de pegar con la raqueta a una pelota que se mueve muy rápido y prácticamente no deja ningún tiempo para efectuar semejantes cálculos. En cambio, si atendemos a la organización de los movimientos del cuerpo, descubrimos que también hay mucha “inteligencia” en la materialidad de tendones, huesos y músculos, en los circuitos espinales que controlan reflejos y en las sinergias que se producen entre distintas partes del cuerpo (si levantamos el brazo derecho, inmediatamente se tensan músculos dorsales y de la pierna en el lado izquierdo, y así). De hecho, parte de nuestro trabajo ha sido demostrar que esa inteligencia de la organización del cuerpo puede explicar movimientos sin necesidad de modelos internos, es decir sin necesidad de que exista un computador central dictando cómo el cuerpo se debe mover.

 

Este es sólo un ejemplo. Críticas semejantes se pueden encontrar en el área de lingüística cognitiva (los trabajos clásicos de Lakoff y Johnson, sobre la corporeidad de las metáforas y esquemas conceptuales – avanzar como metáfora de progreso, formas de categorización basadas en el esquema dentro/fuera del cuerpo, etc.). También en el área de robótica donde es efectivo inspirarse en cómo se mueven los insectos, aprovechando la morfología de los sensores, la dinámica propia de sus cuerpos, y las regularidades del ambiente para así construir robots capaces de moverse en ambiente reales. En contraste las máquinas construidas en base a la concepción computacional de la cognición pueden jugar al ajedrez (usando un poder computacional de búsqueda masivo) pero no pueden hacer que un robot pueda cruzar la calle.

 

Este tipo de críticas pueden resumirse de esta manera: La mente no es algo general que pueda estudiarse sin atención a la corporeidad como se pretende con nociones genéricas como el procesamiento de información. 

 

Pero hay más. En nuestro trabajo, en lo que se llama el enfoque enactivo, intentamos ir más allá y preguntarnos si no nos quedamos cortos simplemente sugiriendo que estudiar el cuerpo es meramente conveniente para destrabar el avance de las ciencias cognitivas. Nosotros proponemos en cambio que es esencial, en el sentido estricto de la palabra. O sea que proponemos una visión de la mente cuyas características constitutivas son precisamente dadas por el hecho de ser un sujeto corporizado, frágil, precario y en constantes relaciones de necesidad con su entorno (físico y social). Esto sería el “embodiment” profundo y más radical, el cual intenta proponer que lo esencial de la mente es que las cosas nos importan y que nos importan a sujetos corporizados reales y con experiencias vitales, habitantes de mundo, no meramente de un ambiente. Sino no podemos distinguir a un sujeto mental de una computadora que también procesa información. Lo constitutivo de lo cognitivo es la materialidad y precariedad del cuerpo en el mundo que está constantemente constituyéndose a sí mismo como cuerpo y co-constituyendo el mundo junto a otros cuerpos. El enfoque enactivo radicaliza lo que es inicialmente una crítica metodológica (el cuerpo importa si queremos avanzar nuestro conocimiento de la mente) a una crítica conceptual (lo esencial de la mente es el cuerpo).

 

Hace unos años un investigador llamado John Dylan Haynes (del Instituto Max Planck de Berlín) investigó la toma de decisiones y desarrolló la teoría de que muchas decisiones se toman primero a nivel inconsciente y luego pasan a nivel consciente. Si bien recibió críticas y probablemente aún se este investigando sobre este tema ¿por qué cuando se habla (y se piensa) en inteligencia artificial siempre es sobre como generar una consciencia pero nunca se habla sobre un inconsciente?

 

La pregunta tiene una respuesta simple y no demasiado interesante. Se habla de generar una conciencia porque eso sería una prueba clara de que el proyecto de inteligencia artificial ha alcanzado cierto éxito. Muchos ven al tema de la conciencia como una de las metas principales ya que lo cierto es que nadie sabe cómo llegar a ella. Que se considere como tal tiene que ver con el enfoque computacionalista (que es una variante del funcionalismo) según el cual la conciencia es un misterio. Si se lograra instanciar el procesamiento de información necesario para tomar una decisión, ¿para qué, desde esta perspectiva, sería necesario que haya conciencia?

El enfoque enactivo tiene un pilar fuerte en el estudio de la experiencia humana, ya sea a través de tradiciones académicas como la fenomenología o prácticas como la psiquiatría, el psicoanálisis, terapias corporales, etc, y también tradiciones de meditación. Lo que se aprende a partir de estas fuentes es la inmensa variedad de experiencias que normalmente reducimos a una categoría binaria consciente/inconsciente. Y desde esta perspectiva alternativa puede tematizarse de manera más explícita cuándo podemos esperar que ciertas actividades tengan una manifestación a nivel de conciencia corporal o a nivel de consciencia explícita y reflexiva. Pueden proponerse conexiones entre las explicaciones enactivas y las características estructurales fenomenológicas de diversas formas conciencia, como lo hace la teoría sensorimotora de la percepción que propone que los aspectos cualitativos de distintas modalidades sensoriales (tacto, visión, audición), dependen de las relaciones y regularidades sensorimotoras que ejerce nuestro cuerpo en relación a su mundo.

 

Partiendo de la idea de que el funcionamiento de las redes sociales actuales no es algo enteramente nuevo sino que los humanos funcionamos de esa forma “colectiva” desde siempre o que podemos encontrar un funcionamiento similar entre las neuronas o los genes; y suponiendo que todo comportamiento humano que presente algún patrón en internet es susceptible de ser traducido a una fórmula matemática y al lenguaje binario ¿Es posible pensar a las redes sociales como un inmenso laboratorio donde los científicos pueden ponen a prueba diversas hipótesis -desde biológicas a filosóficas- y así aprender mejor cómo nos comportamos y como funciona nuestra mente? ¿Son las redes sociales una instancia previa necesaria para construir un ser humano sintético?

 

Creo que entiendo la pregunta pero no estoy seguro. Si hablamos de un tema de complejidad, las redes sociales pueden presentar características estructurales y dinámicas que se asemejan a otros sistemas adaptivos complejos (redes de intercambio comercial, redes de comunicación con feromonas en insectos sociales, etc.). La semejanza es mayor cuando menos “humano” sea el usuario, es decir cuando reduzca sus acciones en estas redes a meros patrones predecibles y representables mediante reglas. Es precisamente ese tipo de representación la que está detrás del aprendizaje del cómo actúan los usuarios de redes sociales para poder por ejemplo ofrecerles la información que supuestamente más les interesa y orientar los avisos comerciales. Se trata nuevamente de entender al comportamiento humano como el de una máquina. Y en la medida en que las redes sociales a veces hacen precisamente que nos comportemos de tal manera, esos modelos son efectivos. La concepción computacional e individualista del sujeto humano crea formas de interacción y normatividades que obligan a que uno se comporte (y eventualmente se transforme) en un mecanismo que se ajusta a tal concepción. En otras palabras, el sujeto es modificado para que se asemeje a la concepción pobre e inacabada, pero funcional a un sistema, que se tiene de él.

 

De manera conversa, en la medida en que los usuarios de redes sociales rompen este patrón y son capaces de crear nuevas formas de interacción que desafían a la normatividad implícita en el funcionamiento de esas redes, son ellos los que entonces pueden llevar a estos fenómenos colectivos a patrones no asimilables a otras redes complejas en la naturaleza.

 

Se ha hablado mucho sobre el Test de Turing y según Wikipedia existieron dos casos en que la prueba fue superada. En ambos una parte importante del jurado no logró diferenciar si las respuestas provenían de una máquina o de una persona. Tenemos también el caso de las androides japonesas -Komodoroid y Otonaroid- que prestan servicios en Museo Nacional de Ciencia y Tecnología de Tokio. ¿Qué tan cerca estamos de disolver las diferencias entre lo vivo y lo programado? ¿Es posible pensar en máquinas capaces de mentir, desear, soñar, sentir?

 

El Test de Turing surgió precisamente porque el paradigma computacionalista no tiene una concepción intrínseca de qué es la cognición. Por lo tanto no puede decir: cuando hayamos hecho esto y logrado aquello habremos diseñado un ser cognitivo artificial. Debe basarse entonces en un test comparativo: si logramos engañar a la gente de forma tal que ellos crean que están tratando con una mente, entonces habremos alcanzado nuestra meta. Como concepción científica el Test de Turing es bastante débil. Ha tenido su influencia importante en guiar distintas áreas de investigación como la comprensión del lenguaje natural. Pero es más bien un síntoma de una teoría incompleta que otra cosa (imaginate unos ingenieros aeronáuticos que no tuvieran un criterio se qué significa que una máquina pueda volar y decidieran someter sus diseños al veredicto de jueces a ver si les parece que vuela o no – no se consideraría una empresa seria). 

 

Tus preguntas tienen una respuesta rápida. No estamos nada cerca de construir una máquina como la que describís. Hace unos años yo propuse que nuestra meta debería ser construir un robot al que le importe mínimamente lo que le pase. Que cuando ande mal y choque con las paredes no sea yo el único frustrado, sino el robot también. Si bien hemos desarrollado algunos modelos, esa meta mucho más modesta sigue sin alcanzarse. Por ese motivo me dí cuenta que falta mucho para primero siquiera poder formular las preguntas correctamente. El enfoque enactivo nos da algunas herramientas que ligan precisamente la organización del cuerpo biológico en su autonomía y precariedad con la noción básica de “sense-making” o búsqueda de sentido. Una bacteria que distingue la dirección dónde crece el gradiente de azúcar está haciendo sense-making. Porque el azúcar es vital para la bacteria. Un robot que sigue una luz, en principio no, porque seguir la luz no es esencial para su constitución. En un cuarto a oscuras sigue siendo el mismo robot. No le importa. Pero es perfectamente concebible diseñar una máquina precaria que deba seguir la luz para poder seguir siendo la máquina que es. Tal máquina estaría haciendo sense-making porque lo que hace le importa no solo al diseñador, se puede argumentar que a la máquina en sí misma.

 

Hace muy poco tiempo me enteré de la existencia de un libro llamado La era de las máquinas espirituales escrito en

1998 por quién ahora es Director de Ingeniería de Google, Ray Kurzweil.

¿Es plausible la relación que establece entre la teoría de la evolución, su aplicación en la inteligencia (tanto humana como artificial) y la relación con el tiempo? Por otro lado algunas de las predicciones sobre nuestro presente son bastante acertadas. ¿Qué pensás de las predicciones que hace del 2019 en adelante?

En Google tienen una computadora que funciona con bits cuánticos: los qubits ¿Qué opinión tenés de la computación cuántica y de su posible aplicación al desarrollo de inteligencia artificial?

¿Por qué ahora hay tantos científicos temerosos (entre ellos Stephen Hawking) del posible desarrollo de la inteligencia artificial?

 

Estas son varias preguntas. Cada una merecería una respuesta separada. En cuanto a avances tecnológicos, no hay duda que pueden contribuir mucho. Pero en general yo no considero que el avance en sí traiga soluciones si no tenemos al menos bien planteadas las preguntas. Durante décadas se ha venido confiando en semejantes avances para reemplazar el vacío teórico que caracteriza a la noción computacionalista de la mente. Y las predicciones de que los robots inteligentes y malvados están a la vuelta de la esquina se vienen haciendo desde los años 50 (muchas veces por la misma gente). No es cierto ni remotamente (lo que no implica que no haya otros motivos de preocupación respecto al uso de ciertas tecnologías por ejemplo para el procesamiento y almacenamiento masivo de datos personales, o para surveillance). El temor fundado de algunos científicos no es tanto, en mi opinión, por un eventual éxito de la inteligencia artificial, sino por el uso de ciertas tecnologías como algoritmos de toma de decisión no muy complejos que emergen de esta disciplinar y que ahora pueden aplicarse muy eficientemente a sistemas con un alto impacto potencial (caso extremo: el uso de reconocimiento de patrones visuales en drones que puede usarse para automatizar la decisión de disparar o no a un blanco).

 

En cierto sentido tales escenarios sí son preocupantes y son el resultado de tecnologías que surgen de la inteligencia artificial como disciplina técnica. Lo interesante del enfoque enactivo es que desde el comienzo plantea la cuestión de la cognición como ligada a la cuestión de la autonomía vital del agente cognitivo. De esta manera no puede desligarse de una preocupación ética respecto a cómo se concibe al sujeto y cómo se aprende de él. Si construimos el robot que necesita ir hacia la luz para seguir viviendo y por lo tanto sus acciones le importan tanto a él como a mi, no puedo simplemente apagarlo al final del día. De forma inmediata con la creación de un ser artificial surgen responsabilidades éticas tanto hacia ese ser como hacia su impacto en el mundo.

 

 

 

Para seguir leyendo y aprendiendo:

 

Blog personal de Ezequiel Di Paolo 

 

El enactivismo y la naturalización de la mente 

 

 

 

 

 

 

 

Entrevistas
bottom of page