©ITAM Derechos Reservados.
La reproducción total o parcial de este artículo se podrá hacer si el ITAM otorga la autorización previamente por escrito.

ESTUDIOS. filosofía-historia-letras
Otoño 1987

Breve historia de la Inteligencia Artificial


Los esfuerzos por reproducir algunas habilidades mentales humanas en máquinas y androides se remontan muy atrás en la historia. El mito del coloso de Rodas entre los griegos, las estatuas "parlantes" del medioevo, el androide de Von Kempelen que jugó al ajedrez con Napoleón, y el "motor analítico" de Charles Babbage que calculaba logaritmos, son sólo algunos de los ejemplos de este antiguo interés. Igualmente, la concepción de la inteligencia humana como un mecanismo no es reciente ni ha estado disociada de la psicología: Descartes, Hobbes, Leibniz, y el mismo Hume se refirieron a la mente humana como una forma de mecanismo.

Durante el siglo XIX y la primera mitad del XX, las analogías biológicas y fenomenológicas desplazaron a la noción de mecanismo en el estudio de la mente humana. Sin embargo, a partir de la segunda mitad de nuestro siglo, la noción de mecanismo renovó su poder heurístico con la formalización de la noción de "computación".

Como algunas máquinas, especialmente las calculadoras, se diseñaron para evitar el tener que pensar y para hacer el pensamiento más rápido y exacto, fue inevitable que desde sus orígenes las calculadoras, y más adelante las computadoras, se relacionaran con la inteligencia y el pensamiento enfatizando sus similitudes.

La IA fue introducida a la comunidad científica en 1950 por el inglés Alan Turing en su artículo "Maquinaria Computacional e Inteligencia." A pesar de que la investigación sobre el diseño y las capacidades de las computadoras comenzaron algún tiempo antes, fue hasta que apareció el artículo de Turing que la idea de una máquina inteligente cautivó la atención de los científicos.

La pregunta básica que Turing trató de responder afirmativamente en su artículo era: ¿pueden las máquinas pensar? Los argumentos de Turing en favor de la posibilidad de inteligencia en las máquinas, iniciaron un intenso debate que marcó claramente la primera etapa de interacción entre la IA y la psicología. Los debates en aquella época se centraron en el análisis de la serie de problemas implicados en la aplicación de términos mentalistas a las computadoras. La intención de Turing no era la de usar estos términos como analogías sino la de eliminar la distinción entre inteligencia natural e inteligencia artificial.

Dos de las contribuciones más importantes de Turing a la IA fueron el diseño de la primera computadora capaz de jugar ajedrez y, más importante que esto, el establecimiento de la naturaleza simbólica de la computación.

El trabajo de Turing, quien falleció prematuramente, fue continuado en los Estados Unidos por John Von Neumann durante la década de los cincuentas. Su contribución central fue la idea de que las computadoras deberían diseñarse tomando como modelo al cerebro humano. Von Neumann fue el primero en "antropomorfizar" el lenguaje y la concepción de la computación al hablar de la "memoria", los "sensores", etc., de las computadoras. Construyó una serie de máquinas utilizando lo que a principios de los cincuentas se conocía sobre el cerebro humano, y diseñó los primeros programas almacenados en la memoria de una computadora.

Sin embargo, esta línea de investigación pronto encontró serias limitaciones. La concentración en la imitación de la constitución físico-química del cerebro, no permitió ver, a Von Neumann y sus seguidores, que la analogía sería mucho más eficiente si se estudiaran las funciones del cerebro, es decir, sus capacidades como procesador de información.

Corresponde a McCulloch, a mediados de los cincuentas, formular una posición radicalmente distinta al sostener que las leyes que gobiernan al pensamiento deben buscarse entre las reglas que gobiernan a la información y no entre las que gobiernan a la materia. Esta idea abrió grandes posibilidades a la IA. En esta línea, Minsky (1959), uno de los padres fundadores de la IA, modificó su posición y sostuvo que la imitación del cerebro a nivel celular debería ser abandonada.

Es más o menos en esta época que ocurre un evento que organizaría y daría un gran impulso al desarrollo de la IA: el congreso en Darthmouth (1956). En este congreso, en el que se reunieron los padres fundadores de la disciplina, se llegó a la definición de las presuposiciones básicas del núcleo teórico de la IA:

1. El reconocimiento de que el pensamiento puede ocurrir fuera del cerebro, es decir, en máquinas

2. La presuposición de que el pensamiento puede ser comprendido de manera formal y científica

3. La presuposición de que la mejor forma de entenderlo es a través de computadoras digitales

Desde fines de los cincuentas la investigación en IA se expande y se multiplica en direcciones diversas. La capacidad simbólica de las computadoras es estudiada, entre otros, por Shanon (1950) y por Newell, Shaw y Simon (1958) quienes diseñan el primer programa inteligente basado en su modelo de procesamiento de información. Este modelo de Newell, Shaw y Simon habría de convertirse pronto en la teoría dominante en psicología cognoscitiva.

Algunos investigadores se dedicaron al estudio de la naturaleza del aprendizaje en las computadoras y a los procesos de reconocimiento de patrones visuales. Como resultado de ello Selfridge y Dinneen consiguen diseñar el primer programa capaz de aprender por experiencia (ver McCorduck, 1979).

Basándose en los estudios sobre memoria asociativa, el equipo Newell-Shaw-Simon construyó los primeros lenguajes de procesamiento de información (IPL-I, IPL-II) utilizados en el diseño de su "Logic Theorist Machine" que se convirtió en la primera máquina "inteligente". Esta máquina fue capaz no sólo de memorizar y aprender, sitio que consiguió demostrar de una manera original y "creativa", es decir no prevista por sus creadores, algunos de los teoremas propuestos por Bertrand Russell en los Principios (Russell and Whitehead, 1925).

Desde sus orígenes la IA se relacionó con juegos como el ajedrez y las damas, probablemente debido a que los juegos de mesa constituyen modelos de situaciones reales en las que hay que calcular, solucionar problemas, tomar decisiones, corregir errores, recordar, etc. A pesar de que esta línea de investigación ha sido casi totalmente abandonada en la actualidad, muchos de los avances teóricos y metodológicos de la IA se deben a ella. Por ejemplo, Samuel diseñó en 1961 un programa que jugaba damas y que era capaz de aprender de sus errores, es decir, era capaz de adaptar su comportamiento en relación a eventos pasados. Lo pasmoso de este programa fue que, aunada a su capacidad de aprendizaje la de memoria, con el tiempo consiguió derrotar invariablemente a su creador. El mismo resultado fue obtenido por Bernstein a través de un programa que jugaba ajedrez (Boden, 1977). Los grandes "retos" entre computadoras y seres humanos se multiplicaron, siendo el más famoso de ellos el que ocurrió entre Dreyfus (un enconado crítico de la IA) y el programa Machack, en el que Dreyfus fue derrotado en un juego de ajedrez de varias horas.

A principios de los sesentas, la IA comienza una fase distinta de su desarrollo. En 1962, McCarthy y Raphael inician sus trabajos sobre el diseño y la construcción de un robot móvil que llamarían "Shakey". La diferencia fundamental entre este robot y los programas en computadora utilizados hasta ahora por la IA, es que "Shakey" tendría que enfrentar el reto de interactuar con el mundo real en términos de espacio, tiempo, movimiento, etc. En otras palabras, el robot tendría que tener alguna forma de "conocimiento" del mundo que lo rodeaba. Este reto inició una fuerte preocupación en la IA por el estudio de la epistemología y los procesos cognoscitivos. La discusión se centró alrededor de los problemas de la representación mental o interna del conocimiento, la percepción y los problemas del significado. La idea básica de Raphael era la de reunir, en una sola, distintas máquinas con capacidad de aprender por experiencia, de reconocer patrones visuales, de modelar, de manipular símbolos, etc., y esperar que el todo fuera mayor que la suma de las partes. El resultado del experimento no fue el éxito que Raphael esperaba, pero fue un logro sin precedente que hizo posibles avances muy importantes. El aprendizaje más importante de esta experiencia fue la comprensión de que el problema más difícil por resolver en IA era el de construir una máquina capaz de funcionar con altos ni<,eles de incertidumbre, como lo hace un ser humano. Se hizo claro que construir una máquina que no lidiara efectivamente con la incertidumbre sería una de dos: o trivial, por la simpleza de la tarea, o imposible por la complejidad de la misma.

Hacia mediados de los sesentas la IA se convierte en un área en la que se interesan e interactúan especialistas de diversas disciplinas: lógicos, psicólogos, matemáticos, lingüistas, filósofos, etc. Uno de los grandes temas de IA en esta década fue el estudio del lenguaje. En la mayoría de los estudios iniciales sobre lenguaje, se atacó el problema de diseñar una máquina que fuera capaz de traducir de un idioma a otro. El énfasis se hizo en el análisis de la sintaxis, en lugar del significado, estrategia que se abandonó relativamente pronto. Los investigadores interesados en esta área de la IA pronto descubrieron que traducción no es lo mismo que transformación, y que, como consecuencia de ello, de alguna manera la máquina tendría que "entender" un texto antes de poder traducirlo. Los esfuerzos se orientaron hacia una definición de la comprensión que pudiera simularse en una computadora.

Con esta idea como lineamiento heurístico, se desarrolló una serie de programas que exploraban esta serie de habilidades relacionadas con el lenguaje y la comprensión: el "oráculo" de Phillips, "Sad Sam" de Lindzay que fue uno de los más exitosos, y "Eliza" de Wizenbaum y Colby. (ver Boden, 1977). El programa de Lindzay se orientó hacia el estudio del significado, connotativo y denotativo, y es capaz de hacer inferencias, conocer, y parafrasear sobre el mundo conocido. Eliza, por otra parte, consistió en un análisis de la conversación que se basa en la simulación de una terapia psicológica interactiva en la que el programa es el analista y el interlocutor es el analizado. Un ejemplo de una conversación sostenida con Eliza en la computadora de la Universidad de Stanford es el siguiente (el diálogo de la computadora en letras mayúsculas):

BUENAS TARDES, POR FAVOR ESCRIBA SU NOMBRE

buenas tardes, me llamo Javier

ES UN PLACER CONOCERTE, JAVIER

el placer es mio

¿QUE TE TRAE POR AQUI?

nada en especial, he tenido trabajo y me siento agotado

¿QUE TE HACE PENSAR QUE ESTAS AGOTADO?

he tenido problemas en mi trabajo

¿PROBLEMAS?

es decir, he estado preocupado con mi trabajo

CUENTAME TUS PREOCUPACIONES...

Según Colby, psicoanalista por entrenamiento, el programa resultó tan exitoso en términos clínicos que valdría la pena intentar reproducirlo masivamente como instrumento terapéutico. Intento al que Weizenbaum, coautor del programa, se opuso decididamente con el argumento de que no puede decirse desde ningún punto de vista que "Eliza" es capaz de entender lo que se le dice. "Eliza", Weizenbaum insiste, es un programa capaz de responder, que no es lo mismo que comprender.

Como resultado de este y otros debates, las preguntas de investigación siguieron girando alrededor de la noción de comprensión. Los seres humanos comprendemos en una plática mucho más de lo que se nos dice explícita y verbalmente (en parte porque la comunicación no~verbal juega un papel muy importante y en parte por nuestras capacidades para obtener información del contexto y para operar con altos niveles de incertidumbre) y pareció importante que estas habilidades fueran reproducidas en una computadora con pretensiones de inteligencia. Los investigadores se dedicaron entonces al estudio de los aspectos no-verbales del lenguaje y al de reconocimiento de patrones.

Para mediados de los sesentas, y como resultado de los estudios sobre lenguaje y comprensión. la IA se involucré en el estudio del problema de la representación mental del conocimiento. Igualmente, una gran preocupación en esta década fue la de encontrar aplicaciones prácticas de lo que se había aprendido hasta entonces. Entre las aplicaciones más exitosas debe mencionarse el diseño de DENDRAL en Stanford, un programa que hace espectogramas y diagnósticos médicos y que hasta ahora ha tenido la misma tasa de error que los seres humanos. La segunda aplicación importante tiene que ver con la psicología educativa y la mencionaré en la siguiente sección sobre la interacción entre la IA y la psicología.


AnteriorRegresoSiguiente