PORTADA

Todo está listo el agua, el sol y el barro,
pero si falta usted, no habrá milagro.
Joan Manuel Serrat

Por Mariela Michel

Durante los veranos en nuestro país, las casas de la playa suelen ser un espacio de convivencia familiar en el que muchos nos reencontramos con tíos, primos, hermanos, sobrinos, hijos y nietos de un modo que es inusual en esta época, en la que la familia extendida se ha ido distanciando cada vez más. Y esa falta de distancia desacostumbrada se vuelve más notoria durante los días de lluvia. Quizás sea por eso que esos días son muy propicios para hacer tortas y para conversar sobre temas que actualmente no surgen con frecuencia en las reuniones sociales, o al menos no con la profundidad que resulta luego de las extensas horas de tedio grupal. Hace pocos días, en una de esas reuniones prolongadas, no pudo faltar uno de los temas de actualidad y luego de unas copas de vino, comenzaron a surgir las confesiones sobre el terror que el crecimiento de la tan mentada ´inteligencia artificial´ (IA) producía en varios de los presentes. Luego, se dio una animada charla que consistía en recordar películas y tratar de ubicar sus nombres, a partir de escenas que tenían en común el inconfundible efecto Frankenstein. Hablo de la muy temida adquisición de amenazadora autonomía de una invención, peligrosa para sus propios creadores, que van cediendo el protagonismo y ‘desempoderándose’ progresivamente, hasta volverse seres totalmente indefensos y, por supuesto, incapaces de controlar a su creación.

Después de esa conversación y de otras mantenidas anteriormente, busqué en Wikipedia el significado del término “tecnofobia”, una palabra relativamente reciente que es usada para describir este fenómeno:

La tecnofobia (de griego τέχνη – technē , “arte, habilidad, oficio”1​ y φόβος – phobos , “miedo”2​) o tecnoparanoia es el miedo o aversión hacia las nuevas tecnologías o dispositivos complejos, especialmente ordenadores. (…). El término se utiliza generalmente en el sentido de un miedo irracional. Se relaciona con la ciberfobia y su contrario, la tecnofilia. Se pueden encontrar ejemplos de ideas tecnofóbicas en múltiples formas de arte, desde obras literarias como Frankenstein hasta películas como Metrópolis. Muchos de estos trabajos retratan un lado más oscuro de la tecnología, como lo perciben aquellos que son tecnofóbicos. A medida que las tecnologías se vuelven cada vez más complejas y difíciles de comprender, es más probable que las personas alberguen ansiedades relacionadas con el uso de tecnologías modernas. (Wikipedia)

Las tramas argumentales, obviamente, pertenecen al género ficcional. Sin embargo, había cierto consenso en nuestra reunión familiar con respecto a que “lo que aparece en las películas ya seguramente es posible en la realidad”. Este es claramente el mensaje que transmiten muchas películas y series actualmente, porque su objetivo explícito es mostrar algo que nos espera en un futuro no muy lejano. Por otra parte, este mensaje no es muy diferente del que se escucha en medios académicos prestigiosos. Hace ya unos años, asistí a una exposición sobre IA en la Universidad de Ottawa, en la capital de Canadá, en la que se presentaba una invención tecnológíca que estaba diseñada para sustituir completamente a los seres humanos en el cuidado de personas mayores. El adjetivo “completamente” no es una exageración de quien escribe aquí, sino que fue expresado de modo manifiesto en la presentación. En la descripción de sus funciones, se hacía hincapié en que no solamente podía llevar a cabo tareas prácticas como ofrecer alimentos, medicación, ayudar en tareas de aseo, sino que también podía acompañar a la persona de modo emocional. y por ende podía sustituir los vínculos humanos. Este robot ya diseñado podía comprender los sentimientos de la persona acompañada a través de la tonalidad de su voz, y responder a ella de modo específico. Me impresionó ese planteo sobre una máquina capaz de reconocer características individuales y comunicarse de tal forma que sería muy fácil olvidar su condición no humana. En el momento de las preguntas, quienes llevaban a cabo la exposición respondían negativamente a los comentarios que apuntaban a distinguir este tipo de robots de un ser humano.

Una situación similar que quedó registrada en internet en esa misma universidad tuvo lugar durante el Foro Alex Trebek para el Diálogo titulado “Ética de la Robótica: el futuro de la interacción humano-robot”. Allí, en determinado momento (1), el Dr. Ian Kerr hace una afirmación que está en la base argumental de las películas futuristas: “este tipo de tecnología desdibuja los límites (blurs the line) entre el instrumento y el actor” .

Si este es el mensaje que están transmitiendo los académicos especializados, entonces tenemos una razón de peso para estar aterrorizados. De ser esto cierto, el fenómeno ya no se podría denominar ‘tecnofobia’, sino ‘miedo racional’ y justificado. Para que una patología sea considerada ‘una fobia’, el miedo tiene que ser desmesurado con respecto al estímulo. Si la IA pudiera dejar de ser un instrumento solamente, es decir, si no estuviera supeditada a la inteligencia humana, entonces se convertiría, ipso facto, en una amenaza real. Si, al contrario, estuviera limitada a su condición de dispositivo ‘no humano’, solo nos quedaría alegrarnos y celebrar el hecho de que tenga un potencial de volverse cada vez más eficiente. A mayor eficiencia, mayor utilidad para colaborar con las tareas humanas.

Por eso, es tan importante responder a la pregunta que quedó latente en nuestra conversación familiar veraniega: ¿existe una diferencia que hace la diferencia? ¿Hay algo que es insustituible en la inteligencia del ser ‘ser humano’? ¿cuál es el elemento que hace que la IA sea en realidad ‘artificial’? Poder encontrar un elemento diferencial entre la IA y la inteligencia humana, haría que ya no tuviéramos nada que temer. Al menos no temeríamos a la IA, porque así como puede ser un instrumento al servicio de algunas personas o grupos, también puede estar al servicio de todas las personas, a medida que se vuelve más común su uso en la sociedad. El miedo a que se desdibujen las fronteras entre ser humano e instrumento no es un miedo común, es una fantasía tenebrosa, porque en ese caso, quien saldría ganando sería el instrumento. Éste tendría las características humanas además de las ‘artificiales’: mayor memoria, rapidez, eficacia, fuerza, resistencia, etc. Y, por otro lado, habría que restarles las debilidades que surgen de la vulnerabilidad humana. Si fuera real la existencia de un potencial antagonista de esta magnitud, toda fantasía terrorífica dejaría de ser una ficción. En ese caso, solo nos restaría bajar los brazos, cruzar los dedos y desear que ese ser ‘transhumano’ no se vuelva nuestro enemigo. La sumisión sería un posible refugio, si se llegaran a “desdibujar los límites entre el instrumento y el actor”. Otra defensa sería usar implantaciones, elementos prostéticos como lentes ‘visión pro’, por ejemplo, para aumentar el poder de algunos seres humanos, hasta que lleguen a experimentar que la tecnología se ha vuelto parte de su identidad, de quien esa persona realmente ‘es’, por ser inseparable de su cuerpo. Sería algo así como un tatuaje tecnológico. ¿Es esto posible? ¿O en su lugar, debemos celebrar el hecho de que, aunque el humano se vista de robot, humano queda?

Humano, nunca demasiado humano

Ante la pregunta sobre si existe un componente de la inteligencia humana que es intransferible a la IA, la respuesta que surge habitualmente es “la creatividad”. Alcanza con encontrar la capacidad que distingue ‘actor’ e ‘instrumento’, para contradecir a los ‘expertos’ que dicen o no niegan el postulado sobre el borramiento de fronteras. Una de dos: o hay una desaparición de fronteras o hay una capacidad que es exclusiva de la inteligencia humana. Un posible contra-argumento sería que la creatividad no forma parte del concepto de ‘inteligencia’. En ese caso, una máquina podría ser inteligente sin ser creativa. Otra posible objeción sería que la IA sí puede ser creativa o tener el potencial de serlo, porque ya existe IA generativa. En algunas páginas de internet como la del Fondo Económico Mundial, se menciona la necesidad de prepararse para este “punto de inflexión” (“IA generativa: Qué es y por qué la sociedad debe prepararse para este punto de inflexión”). En ese texto, aparece claramente la mención del temor o al menos de “la preocupación”, que es una pariente no muy lejana del miedo:

“Aunque la IA generativa enciende el entusiasmo de la gente con una nueva ola de creatividad, preocupa el impacto de estos modelos en la sociedad.”

Dos preguntas surgen de inmediato. De su respuesta depende el convencimiento de que la inteligencia humana supera y siempre va a superar la IA, o dicho de otro modo, que la inteligencia es una característica exclusivamente humana. Esto último es algo que muchos sospechamos sobre la IA: puede ser artificial, pero no puede ser inteligente.

La primera pregunta es: ¿es aceptable definir la inteligencia sin el componente de creatividad? Algunos teóricos de la inteligencia, como por ejemplo Howard Gardner, describen múltiples tipos de inteligencia. Por razones de espacio voy a citar una descripción sucinta retirada de internet:

“Este descubrimiento lo llevó a concluir que el término inteligencia estaba equivocado, pues no existe una sola manera de ser inteligente ni existe la posibilidad de medir la inteligencia. Howard Gardner define la inteligencia como un conjunto de capacidades cognitivas independientes y relacionadas entre sí que permiten a las personas resolver problemas, crear productos valiosos en la cultura y destacar en diferentes áreas de la vida.”

Si nos atenemos a esta definición, podría pensarse que algún tipo de inteligencia excluiría la creatividad y que esta forma corresponde a la IA. Sin embargo, hay una parte de esta definición que elimina la posibilidad de ser inteligente sin creatividad. Son tres palabras, “relacionadas entre sí”, solamente tres, pero estas palabras nos impiden hablar de una inteligencia separada completamente de la ‘creatividad’. Todo en el ser humano está “relacionado entre sí”, porque somos sistemas vivos que se mantienen en homeóstasis. Todas las capacidades que tenemos están relacionadas unas con las otras. Por eso, si la IA está desprovista de algo tan importante como ‘la creatividad’, no podría considerarse inteligente; se trataría solamente de máquinas o instrumentos que pueden ayudarnos a resolver problemas, e incluso superarnos en algunas destrezas. Pero solamente una definición de ‘inteligencia’ muy estrecha, es decir, que termine por desnaturalizarla por completo, podría permitirnos aplicarla correctamente a los dispositivos que funcionan a partir de algoritmos.

La creatividad, la espontaneidad, la mente y la causa final

En mis clases sobre el método psicodramático, que tuvo sus orígenes en Viena durante la madurez de Freud y de su método psicoanalítico, suelo comenzar haciendo referencia a una capacidad, que Jacob L. Moreno, el creador del Psicodrama, denominó “el factor e”. La “e” corresponde a “espontaneidad”. Moreno era un médico psiquiatra que además estudió matemáticas y filosofía en la Universidad de Viena a principios de los años 1900, según Wikipedia. En varios años de docencia con estudiantes de nivel universitario, he recibido muchos cuestionamientos, las más variadas discusiones y las discrepancias más insólitas. Eso ocurría sobre todo unos años atrás, cuando los estudiantes solían estar más inclinados a interrumpir y a repetir la muy popular frase “no estoy de acuerdo con que ….”. Sin embargo, siempre me sorprendió que, cuando exponía la posición de Moreno con respecto a la “espontaneidad”, invariablemente recibía sonrisas, gestos de asentimiento entusiasta, y una serie de ejemplos destinados a confirmar la existencia de este factor como definitorio de la condición humana. Quizás esto sucedía porque suelo narrar que Moreno estaba profundamente convencido de esto. También creía con idéntico fervor que su convicción se arraigaba en el hecho indiscutible de que este factor era fácilmente observable en todos los bebés que venían al mundo. La definición moreniana de ‘espontaneidad’ es: “la capacidad de dar una respuesta adecuada frente a una situación nueva o la capacidad de dar una respuesta nueva frente a una situación conocida”. Moreno la considera la base de la creatividad no solamente en el arte, sino en todos los aspectos de la vida cotidiana. Y él recurría a una evidencia que en las clases resultaba irrebatible. La prueba de que todos poseemos está capacidad es que ya nos enfrentamos con la mayor novedad de nuestra vida en el momento en que pasamos vertiginosamente de un medio acuático a un medio aéreo, de un entorno oscuro a la luz, de ahí la expresión “dar a luz”. Todos sin excepción respondimos adecuadamente en ese momento crucial por el que pasamos muy tempranamente en nuestras vidas.

Alguien podría decir, “sí, puede ser, pero eso no significa que seamos inteligentes”. Es cierto, pero lo que voy a argumentar ahora es que sin espontaneidad no puede haber inteligencia. Es más, voy a recurrir a la fenomenología de C.S. Peirce, que está en la base de su semiótica triádica, para argumentar que “la espontaneidad” así definida por Moreno es un elemento distintivo de la “mente”, y que la diferencia del funcionamiento de las fuerzas físicas en el universo material. No es bueno pasar por alto el hecho de que Moreno mencionó, a pesar de algunos comentarios críticos a la base filosófica de la teoría de Peirce, que su definición (la de Peirce) de “espontaneidad” fue la mejor que encontró durante sus extensas lecturas de filosofía.

Y quizás ya desperté la curiosidad de algún lector sobre algo que escribí arriba: ¿cuál es la concepción peirceana de la “espontaneidad” que tanto apreció Moreno? En su libro El Psicodrama, Moreno (1978) se refiere a un fragmento de las obras completas de Peirce, para apoyar su idea de que el concepto de “espontaneidad” es necesario como explicación de la irrupción de novedad en el universo. Según Peirce, debe existir otro tipo de funcionamiento diferente al de las leyes de la mecánica, para dar cuenta de los procesos de desarrollo, porque si no hubiera novedad no podría haber crecimiento:

Y sin embargo, la ley mecánica, que el científico infalibilista nos dice que es la única agentividad de la naturaleza, la ley mecánica nunca puede producir diversificación. Esto es una verdad matemática — una proposición de mecánica analítica; y cualquiera puede ver sin ningún aparato algebraico que la ley mecánica a partir de antecedentes semejantes sólo puede producir consecuencias semejantes. Es la idea misma de ley. Así que si los hechos observados apuntan a un crecimiento real, ellos apuntan a otra agentividad, a la espontaneidad para la cual el infalibilismo no proporciona ningún casillero. (CP 1.174) (3)

¿Y qué tiene que ver la espontaneidad con la inteligencia? Es una observación corriente que el movimiento de los cuerpos físicos está regido por las leyes de causalidad eficiente, es decir, de causa y consecuencia, pero eso no alcanza para explicar el movimiento humano. Es cierto que para movernos nos apoyamos en las leyes de la física: si yo tiro una piedra hacia una ventana de vidrio y la aplicación de esa fuerza hará que éste se rompa. Lo mismo sucedería, si alguien golpea un martillo contra una vitrina del mismo material, como sucedió recientemente en un robo en el Punta Carreta Shopping. En eso consiste la causalidad eficiente, y resultó muy eficiente en ese caso, porque si sabemos que determinada causa produce determinado efecto, eso va a suceder siempre. Y a juzgar por el resultado exitoso del robo, más allá de los reparos morales que nos produce esa acción, es difícil no pensar que allí hubo un acto inteligente. ¿Por qué decimos que fue inteligente, si lo que hubo fue solamente algo que se rompió y objetos que se movieron? Justamente, lo calificamos de “exitoso” porque sabemos que también hubo una finalidad, la de cometer “un robo”. El ladrón consiguió su cometido si, y solo si, definimos esa actividad como ‘robo’. Si no fuera un robo, esas mismas acciones podrían ser consideradas como ‘un accidente’. Para entender su significado, es imprescindible considerar cuál es el objetivo para el cual la rotura de ese exhibidor comercial fue sólo un medio, y, como tal, forma parte del concepto ‘robar’, que en este caso, rigió toda la actividad previa (ej. llegar disfrazado hasta ese lugar, usar la mascarilla pandémica, ocultar su identidad, etc.). Además de fuerzas físicas, había allí también involucrada una influencia ‘ideal’, al decir de Peirce, una idea que, en tanto tal, rige todas las acciones que tienen una tendencia a un fin. En eso consiste la incidencia del futuro en el presente (Peirce). El fin, por supuesto, en ese caso era el suculento botín que ‘finalmente’ se llevaron.

Observamos aquí dos tipos de causalidad tradicional que funcionan combinadas, pero que se pueden distinguir: la ‘causalidad eficiente’ y la ‘causalidad final’. La primera es de acción y reacción; son las leyes de la física que rigen en al ámbito de la existencia material: el impacto de algo pesado como el hierro sobre algo frágil como el vidrio, y el uso necesario también de la fuerza muscular. La segunda causalidad opera en el ámbito de la mente: ideas, pensamiento, diseño de acciones orientadas hacia un propósito. Es fácil observar también que la inteligencia rige las acciones guiándolas por causalidad final hacia conseguir una meta.

En el ejemplo anterior del robo, parece difícil no distinguir nítidamente entre los dos tipos de funcionamiento, más allá de que en el espacio del Shopping en ese momento, ambas funcionaron de modo combinado y complementario, diría inseparable. La causalidad final, se caracteriza por la direccionalidad hacia un “propósito” que se manifiesta en todo aquello que muestra una “tendencia hacia un estado final” (Ransdell,1977). Esta causalidad funciona en el ámbito de la mente, mientras que la eficiente actúa en el ámbito material. El funcionamiento por algoritmos de la IA se rige por la causalidad eficiente. Por eso, la comparación de una computadora con una ‘mente’ y el llamarla ‘inteligente’ parece ser solamente un recurso discursivo, para transmitir la idea de que puede realizar varias operaciones que hasta hace poco tiempo eran exclusivas de la mente humana. En ese caso, se dice en sentido figurado que actúa de modo inteligente. Para poder decir que un dispositivo es “inteligente” para dar a entender que puede pensar por sí mismo, es necesario que tenga una mente. Por eso, aunque adquiera caracteres morfológicos humanoides, no es lícito afirmar que la IA posee una mente:

La mente tiene su modo de acción universal, a saber, por causalidad final. El microscopista mira para ver si los movimientos de una pequeña criatura muestran algún propósito. Si es así, allí hay mente. (Peirce, CP 1.629)

Si extendemos ese razonamiento, la presencia de mente “allí” no depende de la sofisticación de las operaciones, ni del tamaño de los dispositivos. El desvío de este texto por la discusión sobre las dos modalidades de causalidad que están en la base de la semiótica triádica fundada por Peirce se explica, porque es en ese binomio conceptual que podemos encontrar el elemento distintivo entre la IA y la inteligencia humana. En el caso de que la IA no posea una “mente”, el término ‘inteligencia’ sería solamente una comparación para subrayar las similitudes con las formas de funcionar de la mente humana. Sería una estrategia de marketing para difundir sus virtudes. Algo similar sucede con la publicidad de otros productos. Por ejemplo, el pan marca “Pagnifique” tiene un producto llamado “Casero Rebanado Cero”. Ningún consumidor cree que ese pan sea “casero”, si lo consume es porque tiene características similares a un pan casero, pero está sobreentendido que no lo es. La IA opera en coordinación con la mente humana y por eso es difícil discernir cuál es la frontera entre ambas. Pero eso no quiere decir que la frontera esté desdibujada. Incluso Peirce cuya teoría está basada en el principio filosófico llamado “sinequismo”, que se refiere a la continuidad entre todo lo existente, reconoce que la continuidad no impide que se pueda distinguir conceptualmente los diferentes aspectos del universo. La causalidad final tal como fue descrita por Aristóteles, es característica de todas las formas de vida:

La causalidad final es el modo de causación que caracteriza la acción humana y se extiende por todo el mundo viviente. También creo que es el carácter de la vida de estar dirigida a un fin -y la base biológica de ese carácter – lo que proporciona el fundamento del concepto mismo de valor. Entender la causalidad final es, pues, esencial para comprender la naturaleza humana como la entidad biológica distintiva que es, y para entender gran parte del mundo natural del que el ser humano forma parte… (Gotthelf, 1997)

Un argumento que podría ser utilizado para sostener que la IA es realmente una forma de inteligencia se desprende de la siguiente descripción que aparece en internet cuando escribimos en el buscador de Google los términos “funciones de la inteligencia artificial”:

“En términos sencillos, se trata de máquinas diseñadas para razonar, aprender, realizar acciones y resolver problemas. La IA integra un diseño de programación que es capaz de almacenar información sobre determinada área para convertirla en conocimiento e implementarla en el día a día de la actividad humana.”

Parece lógico inferir que si una máquina puede “razonar” y “aprender” pueda ser considerada una máquina inteligente. ¿Tendremos entonces que aceptar que hay inteligencia porque hay razonamiento? Se impone ahora argumentar por qué motivo no lo podemos aceptar. Si vamos a aplicar la lógica, debemos considerar que el razonamiento se caracteriza por ser de tres tipos: deductivo, inductivo y abductivo. La IA se desempeña bien en los primeros dos tipos, e incluso, podría llegar a aumentar su eficiencia de modo vertiginoso, si la proyectamos al futuro. Sin embargo, la abducción es una forma de razonamiento que le está vedada a la IA, por ser una máquina, y, por esa razón no puede, ni podrá nunca, ser inteligente. Eso no significa que no pueda ser un instrumento muy potente para facilitar el razonamiento inteligente de la mente humana.

En su libro titulado The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do (2021), el Dr. Erik Larson, formado en filosofía, lingüística e informática, desarrolla una serie argumentos que apoyan su crítica con respecto a la idea de que la inteligencia artificial puede sustituir la mente humana. Esos argumentos se pueden escuchar en forma resumida en su ponencia en la cumbre COSM 2021 (5):

Una de las constataciones de Larson que lo lleva a rebatir la idea de que la inteligencia artificial es similar a la inteligencia humana es que aquella no posee capacidad de innovación:

“hice lo mejor que pude en ese libro para exponer el argumento de que no estamos en ese camino, eso es inevitable, necesitamos innovación si queremos llegar a la inteligencia general, (…) si vamos a desarrollar tecnología que es realmente inteligente en términos generales (generally intelligent), como lo es la gente, tendríamos que tener verdaderas expansiones de la innovación, y ustedes saben, lo que estamos haciendo con los datos es muy divertido, pero no está en ese camino en absoluto. Hay mucha confusión sobre eso.” (Larson, COSM2021)

Es interesante destacar que este investigador en ciencias informáticas consideró necesario, en el momento de enumerar tres eventos que impulsaron el avance de la IA, – uno de los cuales es el 11/9 y la colección de datos que llevaron a cabo el NSA y la CIA-, hacer un comentario autobiográfico. Él menciona que trabajó para el Departamento de Defensa, y lo hace para aclarar en tono de broma que “no puedo decir nada malo sobre ellos, no se preocupen”. Ese comentario cauteloso muestra que está entrando en un terreno discursivo que puede ser considerado detractor de esas agencias estatales.

Otro aspecto interesante, en este caso desde el punto de vista teórico, es que Larson basa gran parte de su reflexión en la fenomenología triádica de Peirce. Eso parece una feliz coincidencia. Recordemos la afirmación de Moreno con respecto a qué pensador había escrito de modo más exhaustivo y convincente sobre la “espontaneidad”. Y, a juzgar por este video de 2021, esto sigue siendo así hasta el presente. La definición peirceana de “espontaneidad” se puede encontrar en el siguiente párrafo de sus obras completas:

“Podría demostrarlo fácilmente con los principios de la mecánica analítica. Pero eso no es necesario. Ustedes pueden ver por ustedes mismos que la ley prescribe resultados iguales bajo circunstancias iguales. Eso es lo que implica la palabra ley. Así pues, toda esta exuberante diversidad de la naturaleza no puede ser el resultado de la ley. Ahora bien, ¿qué es la espontaneidad? Es el carácter de no resultar por ley de algo antecedente.” (CP 1.161)

Esta definición es en términos de la lógica basada en los tres tipos de inferencia. La espontaneidad se relaciona con la lógica y por eso es útil como posible elemento para diferenciar la inteligencia humana de la IA, es decir, para resolver si ese elemento hace que la brecha sea “irreductible”, como dice Larson. Creo que vale la pena reproducir aquí el intercambio que se dio al final de su conferencia en la cumbre con otro investigador en IA, porque deja poco lugar a la duda sobre la irreductibilidad entre lo natural (inteligencia humana) y lo artificial. De lo que se trata es de reflexionar sobre el problema de la capacidad de innovación y su carencia por parte de la IA. Lo que sigue es una síntesis del cierre de la conferencia y la primera pregunta formulada por un colega en el auditorio (6):

Larson: “Hay un tercer tipo de inferencia que los matemáticos estudian desde hace mucho tiempo y que se llama abducción o generación de hipótesis (…) esa chispa de innovación es lo que siempre necesitamos. Y la ironía es que la necesitamos para completar el proyecto de IA. Y la ironía final es que necesitamos la innovación humana para averiguar cómo computar, cómo hacer inteligencia general en un ordenador… Pero, no nos equivoquemos, la IA que tenemos hoy en día es inadecuada para esa tarea y seguirá siendo así hasta que todo se derrumbe”.…”

Pregunta: “Concluí de su libro que la inteligencia general descrita como Peter Thiel por ejemplo, es fundamentalmente imposible… basado en la incertidumbre de Girdle, basado en la visión de Peirce de que la realidad es triádica, tienes mapas, tienes territorios, pero necesitas un mediador, un mediador inteligente que no puede ser una máquina. Por lo tanto, llegué a la conclusión de que usted no cree realmente que podemos construir esa singularidad y la inteligencia artificial, pero….

Larson: “…pero a Harvard no le gusta eso, entonces…”.

Pregunta: “Está bien….entonces esa es mi única pregunta: si usted realmente cree que es fundamentalmente imposible en tanto meta.

Larson: “Creo que hay algo irreductible. Tengo la fuerte sensación de que ese proyecto está condenado al fracaso (…) realmente parece que hubiera algo irreductible en la acción de la mente en el mundo físico. Es muy desconcertante cómo eso funciona realmente… En efecto, sospecho que ese proyecto no tendrá éxito. Sospecho que eso es cierto, pero, bueno, yo no tengo la bola de cristal, así que….

No hubo en ese encuentro reciente de especialistas en IA, ningún otro comentario que ofreciera algún argumento a favor de la hipótesis del desdibujamiento de las fronteras entre “el instrumento” IA, y el “actor” (inteligencia humana).

¿Y la psicología que rol juega en todo esto?

Alguien puede preguntarse: ¿con qué credenciales una psicóloga se considera en condiciones de escribir sobre la inteligencia artificial, pues no es algo que está entre sus competencias? Y otra duda: ¿por qué es relevante para la psicología abordar el problema sobre la irreductibilidad entre la inteligencia humana y la IA?

La respuesta a la primera pregunta es que, el problema de la “espontaneidad” y la creatividad en el ser humano es común a ambos campos. Mi profesión y mi tesis doctoral me llevaron a estudiar con cierta profundidad ese concepto en Moreno y en Peirce. Me sorprendió gratamente saber que “la espontaneidad” haya sido traída a colación en un evento sobre IA, y justamente como elemento distintivo descrito como la “chispa de la innovación”. Esa palabra, ‘espontaneidad’, es la que reúne estos campos aparentemente tan diferentes como la filosofía, la computación y la psicología.

Recurrí a la cumbre sobre IA para apoyar el pensamiento psicológico en el de personas especializadas en IA. Allí encontré que Larson se basa en Peirce y se apoya en los tres tipos de inferencia: deductiva, inductiva y abductiva. Cuando afirma que la inferencia abductiva es la única que no se puede programar, porque requiere de esa “chispa” que da cuenta de la innovación también coincide con el concepto de “factor e” moreniano. Aunque la “inteligencia artificial general” tiene una definición en Wikipedia como “un tipo de inteligencia artificial que pueda realizar tan bien o mejor que los humanos una amplia gama de tareas cognitivas”, la simple aplicación de la lógica lleva a concluir que, sin capacidad de innovación, se encuentra muy lejos de la inteligencia humana. Es en ese sentido que la IA puede ser considerada como Larson la describe: “un mito”.

Con respecto a la segunda pregunta, la respuesta es que el hecho de llamar a un aparato mecánico ‘inteligente’ conlleva implicaciones que son considerables desde el punto de vista psicológico. Si fuera realmente inteligente, sería lo que en la vida corriente llamamos “genial”, por su capacidad de almacenamiento de datos, la de operar y de realizar cálculos matemáticos con rapidez, por su capacidad de ejecutar programas complejos, que es muy grande e impactante. Si esa eficiencia operativa fuese un signo de “inteligencia”, se desprende lógicamente que esa “inteligencia”, sería capaz de superar la inteligencia humana. Esto no solamente es aterrador, sino que además es una forma muy convincente de desvalorizar al ser humano, y eso es relevante desde la perspectiva de a psicología.

He intentado argumentar aquí, con apoyo en un evento sobre IA que las computadoras no pueden pensar como nosotros, o, lisa y llanamente que no pueden pensar. El pensamiento es una característica de la mente. La mente opera en el mundo físico, pero es patrimonio exclusivo de los seres vivos. Puede serlo de un ser vivo elemental porque muestra tener direccionalidad hacia un fin, pero nunca de una computadora. A estos instrumentos le falta justamente “la chispa de la innovación”. En otras palabras, le falta lo que Coca Cola tanto popularizó en su campaña publicitaria: “la chispa de la vida”. Ayer y hoy, las campañas publicitarias nos han querido convencer de que el ser humano necesita recurrir a elementos externos (una bebida, una computadora, un celular, por ejemplo) para obtener ese factor vital, el “factor e” moreniano. Como he comprobado en todas las clases de Psicodrama que di, esa chispa misteriosa, mágica e iluminadora lejos de ser ajena al ser humano, se puede observar en todo su esplendor cuando nos encontramos en un entorno favorable a la creatividad. Ese factor e nos constituye desde antes de nacer. Este elemento se manifiesta en nuestra primera bocanada de aire en el parto y antes en la diversificación de los tejidos que constituyen al embrión de todas las especies.

Las fuerzas conjuntas: instituciones universitarias, medios publicitarios, servicios de salud

Por algún motivo no explicitado, un investigador como Larson dejó entrever que su discurso podía resultar de algún modo divergente de las instituciones académicas: “pero a Harvard no le gusta eso”. Otro momento interesante ocurrió cuando hizo la siguiente reflexión con implicaciones psicológicas:

“Cuando converso con mis colegas de IA, sucede que si uno es, en alguna medida, impreciso con su lenguaje, van a usar eso para básicamente aplicar el garrote durante dos horas. Por eso introduzco el marco teórico de las clases de inferencia, porque eso es algo que todos los que realmente trabajan con IA saben que está subyacente en el proyecto (…) Y aquí tenemos nuestro propio pensamiento para confiar y deberíamos probablemente, quizás, no renunciar a eso tan pronto”.

Ya hace unos años es fácil observar que, desde los ámbitos académicos, publicitarios, y de los servicios sanitarios, nos llegan mensajes que conllevan implicaciones psicológicas negativas, porque resultan en un ataque a la naturaleza humana. Uso expresamente la palabra ‘naturaleza’, porque no busco sobrevalorar todo lo que hacemos los seres humanos, sino de darle su justa dimensión a aquello que emerge en nosotros desde los fundamentos de nuestra propia condición. Para mencionar algunos ejemplos, recibimos recientemente y aún seguimos recibiendo mensajes que nos llevan a desconfiar de nuestro sistema inmunológico natural y de lo que en la naturaleza lo fortifica, con la intención explícita de publicitar productos comerciales, como las vacunas. Sin entrar aquí en la discusión sobre la efectividad de estos productos o de sus efectos adversos, intento señalar el efecto debilitador de la autoestima de los mensajes que acompañan su promoción. Algo similar ocurre con los discursos mediáticos que culpabilizan al ser humano por el “cambio climático” o con las instituciones académicas que apoyan las organizaciones que niegan la incidencia de la biología en la definición de género. También cabe mencionar los mensajes que apuntan a reducir nuestra tendencia al racismo, a la discriminación o al bullying. Estas son actitudes que se dan por sentado como siendo una característica de todas las personas. No se tiene en cuenta que dichas actitudes hostiles pueden ser producto de conflictos o patologías de algunas personas. Tampoco se menciona que estos comportamientos son excepcionales y que no llegan a contradecir el hecho de que somos, por naturaleza, seres sociales. Todas esas narrativas que actualmente han tomado protagonismo en los medios tienen en común fomentar la desconfianza en aquellos mensajes no verbales que provienen de nuestro propio cuerpo, y por eso, terminan por reducir la confianza en nosotros mismos.

Con respecto a la discusión inicial sobre la “tecnofobia”, podríamos extraer aquí una conclusión relevante para la psicología. No parece justificado temer a la IA en sí misma, porque ésta en tanto instrumento puede sernos de gran utilidad. Pero sí parece tener una base razonable el miedo a los discursos que acompañan la promoción de la IA. En definitiva, aparentemente estamos ante una megacampaña publicitaria. Si tomamos esos adjetivos literalmente, como sucedió en la conversación familiar que recordé al inicio, eso nos atemoriza, y desvaloriza nuestro potencial. El potencial de la inteligencia es irreductiblemente humano.

La IA hace muchos años que llegó a su techo en cuanto a ese elemento fundamental que es el pensamiento creativo. La misión de los ingenieros informáticos es algún día llegar a emular la inteligencia humana. Sin embargo, luego de muchos años de estudio, trabajo intenso y de copiosos recursos económicos no ha sido posible ni siquiera descubrir el código de su aspecto más básicos: la capacidad de generar pensamientos nuevos. Y, por supuesto, la capacidad de generar pensamientos nuevos es, en realidad, la capacidad de generar pensamientos.

Conclusión: ya es hora de creerlo, si falta usted no habrá milagro

En la era del “empoderamiento” escuchamos esa palabra antes inexistente un día sí y otro también. Todo haría pensar que las instituciones que velan por el bienestar humano están avanzando en esa ruta. ¿Será posible que tantas personas bien intencionadas e inteligentes estén transmitiendo mensajes que terminan por “desempoderar” a los seres humanos? Una vez más recurro a Moreno, quien muchas veces fue llamado “megalómano”, por afirmar que él era un genio. Pero Moreno no decía que solamente él era un genio. Todo su proyecto existencial y laboral estuvo dirigido a que todos aquellos que recurrían a su clínica para tratarse descubrieran la genialidad de la condición humana en ellos mismos. Su idea de la psicoterapia era desbloquear el camino para convertirnos a todos en protagonistas, no solamente en el escenario psicodramático, sino en “protagonistas de nuestra propia vida” (Moreno). Por eso, creo que no debemos aceptar que ninguna inteligencia artificial, ninguna institución benéfica, por bien intencionada que parezca, nos usurpe el protagonismo, ni tampoco que se autoperciba poseedora de capacidades que no le pertenecen.


Notas
1 https://www.facebook.com/watch/live/?ref=watch_permalink&v=10155701326829141 (minuto 53.40)
2 https://mexico.unir.net/educacion/noticias/howard-gardner-inteligencias-multiples-creatividad/
3 Cito la obra de Peirce del modo convencional: x.xxx remiten al Volumen. Párrafo de The Collected Papers of C. S. Peirce, C. Hartshorne, P. Weiss y A. Burks (eds.) (1931-1958).
4 https://www.google.com/search?client=firefoxbd&q=funciones+de+la+Inteligencia+artificial
5 ver https://www.youtube.com/watch?v=LN1_1mvYjp8
6 ver https://www.youtube.com/watch?v=LN1_1mvYjp8 minuto 10:00 aproximadamente
Referencias
Gotthelf, A. (1997). Understanding Aristotle’s Teleology. In R. F. Hassing (Ed.), Final Causality in Nature and Human Affairs (pp. 71–82). Catholic University of America Press. https://doi.org/10.2307/j.ctt22h6qzw.5
Larson, E. J. (2021). The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do. Harvard University Press. https://doi.org/10.2307/j.ctv322v43j
Moreno, J. L. (1978). Psicodrama. (D. Wagner, Trand.) Buenos Aires: Ediciones Hormé. (original publicado em inglês, 1946)
Peirce, C. S. (1931-58). Collected Papers of C. S. Peirce. Vol. I-VIII, C. Hartshorne, P. Weiss & A. Burks (Eds.). Cambridge, Mass.: Harvard University Press.
Ransdell, J. (1977). Some leading ideas of Peirce’s semiotic. Semiotica 19 3/4, 157-178