Había dos enormes jacarandas en el patio de mi niñez. Había un árbol de peragua, tres de mango, diez de níspero, como cuatro de guayaba o de cas. Con los brazos abiertos yo abarcaba apenas un cuadrante del tronco del primer jacaranda. En la niñez todo es enorme, en la madurez más aún. En la niñez porque uno es pequeño, en la madurez porque ni modo, todo es enorme.

sábado, 5 de mayo de 2012

¿Podría una computadora ser inteligente?


¿Podría una computadora ser inteligente?
Resumen comparativo de enfoques y propuestas
Rodolfo Arias Formoso
Ensayo preparado para el curso de Informática y Sociedad
ECCI-UCR, Segundo semestre de 2009.

Planteo del problema.
Una persona de inteligencia y cultura normales no tendrá dificultad alguna para responder una pregunta como la siguiente: “En un campeonato de fútbol, un equipo ha perdido todos sus partidos, y otro no ha ganado ninguno, ¿cómo quedaron entre ellos?”. La persona contestará al instante: “¡No han jugado todavía!”.
Ahora bien, si la pregunta se plantea así: “En un campeonato de fútbol un equipo perdió todos sus partidos, y otro no ganó ninguno, ¿cómo quedaron entre ellos?”, la persona dirá sin titubeos: “¡Eso no es posible!”.
Luego, si a la misma persona –suponiendo que su paciencia aún no se haya agotado – se le pide: “explíqueme el algoritmo que siguió su mente para contestar esas dos preguntas”, es muy probable que se quede pensando, e incluso que no pueda al cabo dar una respuesta del todo convincente.
Intentará aclarar que en la primera pregunta el tiempo verbal es el participio pasivo – si recuerda esos términos gramaticales, cosa infrecuente –, que denota en este caso un resultado parcial, propio de una acción en curso, según la usanza del castellano en nuestro país[i]. Y agregará que en la segunda pregunta el tiempo verbal es el pasado simple, lo cual estaría indicando que el campeonato de fútbol ya terminó.

Pero, y aparte de estas consideraciones verbales, ¿en qué más se apoyó para deducir sus respuestas? Es plausible que la persona empiece exclamando “Eh… ¡por lógica!”.  Y que después agregue: “si un equipo perdió todos sus encuentros, eso significa que cualquiera que jugó contra él deberá tener al menos un triunfo, pero el otro equipo de la pregunta no ha ganado todavía, entonces por fuerza no se han enfrentado aún”. ¿Obvio, verdad? Sí, obvio. Y, pese a ello, muy arduo de plantear formalmente como una secuencia de pasos que un computador pueda entender. Es decir, como un algoritmo.
He ahí. Esa es justamente la clase de problemas al que se han enfrentado, ya desde su buen medio siglo, quienes intentaron y siguen intentando programar una computadora para que sea, o parezca ser, inteligente de la misma forma en como nosotros lo somos. Tan asombrosa es la capacidad que tiene nuestro cerebro de integrar situaciones como la planteada en el ejemplo, que salta la duda de si a fin de cuentas lo que sucedió en su interior (representado por los estados mentales que correspondieron con esos sucesos, sea como sea que se hubieran dado) difiere, categóricamente, de lo que se conoce como un “proceso computacional[ii]”.
De una vez, la persona dedujo en el primer caso que “el campeonato aún se está jugando” y en el segundo que “el campeonato ya terminó”, luego concluyó que un encuentro no habría podido ser posible y escogió instantáneamente las palabras correctas, incluyendo en un santiamén los adverbios “no” y “todavía”, el participio pasivo “han jugado”, y así sucesivamente.
A lo anterior debe agregarse la circunstancia, también de amplísimas connotaciones, de que ese proceso mental –o cualquier otro que hubiéramos utilizado de ejemplo- habría sucedido en un contexto sociohistórico, cultural, semiótico (amén de otras posibles categorías) sin el cual la interlocución que hemos imaginado carecería de sentido. Es decir que de previo existe, en un caso así, una red de significados que permite a los dialogantes un grado de certeza suficiente respecto a los conceptos empleados, tales como “fútbol”, “campeonato”, e incluso con respecto a la gestualidad involucrada. Por ejemplo, si en la segunda pregunta, al decir “un equipo perdió todos sus encuentros”, quien la formula mueve sus manos horizontalmente, como si simulara con ellas un corte o un límite, le estará con ello dando a entender a la otra persona que el campeonato en efecto terminó.
La acotación del párrafo precedente permite ver que el problema de la Inteligencia Artificial no sería, entonces, únicamente el de formular el algoritmo seguido por la persona para resolver preguntas como esas, sino que, para poder ejecutar dicho algoritmo sería indispensable modelar el contexto particular donde sucede el diálogo. Salta a la vista que, si ya la tarea lógica era empinada, la de recopilación, almacenamiento y manipulación de todos los conceptos involucrados, a fin de poseer la destreza necesaria para actuar con éxito en el plano semántico (el del significado de las cosas) lo es aún más, a tal extremo que no hay en absoluto consenso, entre los pensadores que abordan el tema, sobre cuán ardua es en realidad, y si en algún momento futuro la tecnología computacional/informática logrará resolverla.
Relación con el curso de Informática y Sociedad
Antes de continuar con un breve recorrido por el estudio del problema ya planteado, y con el variadísimo paisaje de respuestas y propuestas, objeciones y especulaciones que se ha ido conformando con los años, cabe preguntarse qué ligamen existe entre esto y los alcances de un curso en Informática y Sociedad.
Conviene, en este sentido, dar un paso atrás y retornar brevemente al primer módulo del curso: La Teoría de la Singularidad, según la plantea Ray Kurzweil en particular y el movimiento Transhumanista en general. Se afirma ahí que la convergencia entre biología (con sus avances específicos en ingeniería genética, propulsados por la bioinformática) y tecnología computacional (con el avance en la capacidad de las computadoras, que seguirá la “ley de los retornos acelerantes”[iii]) dará como resultado el surgimiento – en algún punto que oscila alrededor de la mitad del presente siglo – de una nueva especie, el “homo sapiens plus”, así llamado en el ensayo dedicado a ese módulo[iv].
Si bien la visión de Kurzweil no se detiene en este punto, y se atreve incluso a vaticinar que esos homo sapiens plus se integrarán luego en una “suprainteligencia” de alcance universal, ya el hecho mismo del surgimiento de esta nueva especie (o como sea que al cabo quepa denominarla) supondría un reto de enormes consecuencias para la estructura básica de la civilización. Es por ello que uno de los críticos principales de “La singularidad”, el profesor Bill Hibbard, de la Universidad de Madison, Wisconsin, observa que sería necesario redefinir el “chasis” fundamental de nuestra sociedad, a saber el Contrato Social[v].
O sea, habría que reemplazar todos los supuestos esenciales sobre los que se ha hecho factible (en alguna medida que evidentemente no es óptima) la convivencia de más de seis mil millones de personas en un solo planeta, por cierto muy pequeño a escala cósmica. Es decir, que ideas primarias, por ejemplo que “todos somos iguales ante la ley”, que “la ley es plena”, es decir, que debe resolver todos los diferendos, que “todos somos iguales por naturaleza”, y otras de ese mismo rango, deberían revisarse y reemplazarse por unas que en primer término admitan la existencia de seres superiores al homo sapiens “tradicional”, y que en segundo término promuevan la protección de éste último por parte de los nuevos seres superiores.
Esto, como es claro, sería únicamente el primer elemento (o mejor dicho, la “capa externa”, general) de una profunda serie de cambios. A efectos de señalar otro más concreto, puntualicemos que la idea de “trabajo”, y en asocio a ésta la de “ingreso” quedaría en entredicho, ya que muy posiblemente el sapiens “tradicional” no tendría que trabajar, al ser en este aspecto radicalmente inferior que las nuevas versiones de criaturas, ya sea el propio homo sapiens plus, ya sean dispositivos especializados en la realización de cada tipo de tarea relevante desde el punto de vista económico.
De lo dicho en los dos párrafos anteriores se colige que es de la máxima prioridad, para una reflexión acertada y anticipatoria de posibles desastres, considerar en todos sus extremos el impacto social que tendría el desarrollo de la Inteligencia Artificial, partiendo del impacto que ya está teniendo en la actualidad.
Inteligencia Artificial: las escuelas de pensamiento.
El debate sobre cuán inteligentes podrían llegar a ser las computadoras ha abierto, como era de esperarse, un amplio espectro de opiniones, que van desde las muy escépticas (las máquinas nunca serán inteligentes en el sentido auténtico del término, serán sofisticadas y rápidas, pero en esencia tan inteligentes como una licuadora, por decir algo) hasta las muy optimistas (como la de Kurzweil, que ya hemos revisado en detalle en el ensayo anterior, donde se afirma que las máquinas no sólo serán inteligentes como nosotros, sino que nos superarán gradualmente, hasta lograr un grado de desarrollo “computacional” – término que Kurzweil parece equiparar al de inteligencia como tal – de un orden radicalmente superior al nuestro)
Una clasificación exitosa de los argumentos y posiciones existentes ha sido propuesta por Roger Penrose, el célebre científico y divulgador inglés, profesor emérito de la Universidad de Oxford, en su libro “Sombras de la mente”[vi].
La solidez y profundidad del esquema de Penrose se debe a que está articulado sobre el concepto de Consciencia. Por ello es conveniente, antes de continuar con su exposición, dedicar un párrafo a este término. Según el Diccionario de la RAE, “Consciencia” es el “conocimiento inmediato que el sujeto tiene de sí mismo”, idea que se complementa con la de “capacidad de los seres humanos de verse y reconocerse a sí mismos y de juzgar sobre esa visión y reconocimiento”, e incluso “conocimiento reflexivo de las cosas”. Cabe aclarar que si se suprime la “s” y se deja la palabra en “conciencia”, las acepciones que admite son, además de las ya dadas, otras con las que se emplea habitualmente, como “conocimiento interior del bien y del mal”, o bien “con empeño y rigor”, cuando se usa la expresión “a conciencia”. A fin de focalizar el análisis donde realmente interesa, en el resto de estas notas se empleará, visto lo anterior, la forma “consciencia”, en vez de “conciencia”.
¿Y qué “pitos toca” la idea de “consciencia” en este asunto, por qué empezar por ahí? Bien, el punto es esencial y se puede aclarar rápido. Penrose también lo explicita con particular lucidez: si se quiere que algo sea inteligente, ese algo debe ser capaz de aprender, y si se quiere que algo sea capaz de aprender, debe ser consciente. Gráficamente:
      Imagen 1
Lo anterior no deja por supuesto de tener mucha “hondura filosófica”, por decirlo de algún modo. En cualquier caso – y sin ánimo de extender este preámbulo al esquema de Penrose más de lo necesario – resulta muy difícil rebatirlo. ¿Cómo podría algo que no es consciente, “aprender realmente” un nuevo concepto o idea, es decir adquirir conocimiento? No podría. Si no es consciente, no sabe de sí mismo, y si no sabe de sí mismo, no sabe de lo que sabe. Y si no tiene forma de saber qué sabe, pues no puede aprender, porque podría caer (entre otros problemas) en una repetición absurda y eterna de estar aprendiendo lo que ya sabía. La otra relación de dependencia es aún más directa. Si algo no es capaz de aprender cosas nuevas, o bien de modificar (ampliando, renovando, corrigiendo) conocimiento previo, no puede ser inteligente. Esto, claro está, bajo la hipótesis de que la inteligencia representa un proceso (cabría decir también “un continuo”), que entre otros atributos tiene el de dotar al individuo de una permanente capacidad de adaptación al medio. En otros términos, la hipótesis sería que una inteligencia “pre-establecida”, tan inmutable como completa (algo así como la omnisciencia del Dios típico de los monoteísmos), no solo no es posible sino que no tiene validez como “idea plataforma”, sobre la cual construir un marco de análisis sobre este tema.
Aclarado el punto de por qué la idea de consciencia es central en este debate, surgen con claridad los cuatro puntos de vista (sustento de las cuatro corrientes básicas del pensamiento contemporáneo), según el esquema propuesto por Penrose:
·        :    Todo pensamiento es computación, en particular los sentimientos de consciencia son evocados meramente con la ejecución de los cómputos apropiados.
·       La consciencia es una característica de la acción física del cerebro, y si bien cualquier acción física puede ser simulada computacionalmente, la simulación computacional por sí misma no puede evocar la consciencia.
·       :    La consciencia es evocada por medio de la acción física adecuada en el cerebro, pero esta acción física no puede ser simulada de forma apropiada con procesos computacionales.
·       :    La consciencia no puede ser explicada con términos científicos, sean éstos físicos, computacionales o de alguna otra índole.
En las siguientes secciones se elaborará una breve visión de cada punto de vista, y se hará mención de los autores de referencia, cuyos artículos son estudiados en el curso de Informática y Sociedad.
Es interesante, antes de abocarse a ello, observar que las cuatro posiciones concuerdan en un único aspecto: la mente (y dentro de esta la consciencia como una de sus manifestaciones características y esenciales) emerge del cerebro. El concepto de “emergencia” es muy importante. Hace referencia a fenómenos que son cualitativamente distintos de los fenómenos – más simples o elementales – de los que están constituidos. En un televisor, por ejemplo, la imagen móvil emerge como resultado de la sucesión rápida de imágenes estáticas, y éstas a su vez emergen como resultado del barrido, muchas veces por segundo, de un único rayo de luz. En un potrero, por el contrario, el césped está formado de hojitas, pero que a su vez son hojas del mismo césped. Es decir, el fenómeno “potrero” no es emergente de su sustrato “hierba” en la misma forma en que el fenómeno “televisión” es emergente de su sustrato “rayo de luz”. Así, el fenómeno “mente” es emergente de su sustrato “cerebro”, y más aún del sustrato de éste “red neuronal”, o “neurona” propiamente dicha.
Respuestas : Inteligencia Artificial fuerte.
El punto de vista A es el que se conoce habitualmente como de “Inteligencia Artificial fuerte”, y representa la escuela de pensamiento según la cual las computadoras no sólo podrían alcanzarnos en cuanto a inteligencia, sino que pronto nos superarán. La razón para ello es en el fondo muy simple: “todo” se puede reducir a procesos computacionales, y con ello la implicación es directa: más capacidad computacional significa más inteligencia.
Un autor, tan radical como pionero en el campo, es Marvin Minsky, del Instituto Tecnológico de Massachussets. Hay un conocido artículo suyo, “¿Por qué la gente piensa que los computadores no pueden?”[vii], reseñado por el Dr. Claudio Gutiérrez en la antología “Informática y Sociedad”. En él, Minsky expone puntos de vista típicos de la corriente A.
Resalta, en primer término, su afán sistemático – y con frecuencia algo confuso – de quitar obstáculos o limitaciones a lo que podría ser hecho con – o por – una computadora, mediante una reducción de la correspondiente habilidad en el ser humano. Aclaramos esta idea: por ejemplo, dado que la creatividad es característica del ser humano (más en unos que en otros, pero presente en todos al fin y al cabo), cabe preguntarse si una computadora podría serlo también. Minsky se apura entonces a decir que en esencia la creatividad no existe, y que lo único que hay en la persona “creativa” es una mayor capacidad de aprender y de usar el conocimiento adquirido para la realización de determinada actividad. O bien, dado que la consciencia (Minsky se refiere al concepto equivalente de “autoconciencia”) sería, tal y como se razonó en la sección anterior, no solo una característica distintiva nuestra sino también un requisito para la inteligencia, Minsky se aboca a desmitificarla, por no decir que a negar su existencia misma.
De hecho, cabría decir que el extremo de la argumentación “minskyana” es cuando afirma que nosotros en realidad no tenemos autoconciencia, sólo una “sensación”, por demás incompleta e ilusoria, de tenerla. Y dado que no sabemos cómo somos conscientes, qué sucede dentro de nuestro cerebro para generar en la mente la sensación del “yo”, no cabría exigirle a una computadora que adquiriera esa misma capacidad, dado que ni nosotros sabemos cómo se produce. La frase clave, copiada textualmente del artículo, es así: “Si somos tan imperfectos para explicarnos a nosotros mismos, entonces no vemos ninguna razón (por lo menos en principio) por qué no podríamos hacer máquinas mucho mejores de lo que somos nosotros para entenderse a sí mismas”
En lo anterior Minsky paga un precio muy alto: deja de reconocer que la asombrosa complejidad del fenómeno excede por el momento las capacidades de comprensión de la ciencia. Pone de lado, incluso, el extenso debate contemporáneo que, con el concurso de pensadores de muy diversas disciplinas, suscita el tema.
Hay mucha “travesura” en Minsky (el término lo emplea Theodore Roszak en su libro “The cult of information”[viii], que será utilizado como referencia en el ensayo dedicado al impacto de la tecnología de información sobre el proceso educativo), pero también hay muchos conceptos valiosos en su artículo. Uno, que destaca sobre los demás, es del de Red de significado, que él mismo ampliará en uno de sus libros más conocidos, “La sociedad de la mente”. Es a través de un complejo entramado de significaciones, multidimensional, jerarquizado, fractal, con referencias circulares, que adquirimos la capacidad de manipular conceptos, en infinidad de situaciones y contextos. Minsky ilustra su visión con reflexiones interesantes sobre lo que, por ejemplo, significa la palabra-concepto-idea “tres”. Además, señala que la significación “emerge” como fenómeno de dicha red de significados más y más concretos. Una metáfora llamativa es cuando argumenta que el atorarse en definiciones simplistas bloquea la comprensión real de las cosas, diciendo que sería como querer saber para qué sirven las casas sabiendo cómo funcionan los ladrillos. Aún así, se reitera aquí que Minsky expresamente evade la definición de términos como “significación” y “comprensión”, cuando se siente acorralado por su propia línea argumental.
En síntesis, el artículo de Minsky es una referencia obligatoria a la así llamada “teoría computacional de la mente”, que encaja plenamente en el punto de vista A. Y, si bien muchos de los cuestionamientos a ésta provienen de las limitaciones teóricas de la computabilidad, ya sea con la imposibilidad de obtener un algoritmo para cualquier problema formalmente planteado (problema de la parada, cuya formulación se debe a Turing), ya sea con el teorema de la incompletitud de Göedel, Minsky hace caso omiso a estas observaciones y se dedica a repartir denuestos contra quienes no piensan como él, aunque sin referir nombres y apellidos.
Respuestas : Inteligencia Artificial débil.
El punto de vista B  se caracteriza por una observación tan simple como profunda: no importa cuán sofisticada sea la capacidad computacional de un dispositivo (sea éste una computadora, un robot, o cualquier cosa capaz de exhibir comportamiento externo similar en algún sentido al comportamiento inteligente nuestro), éste nunca será capaz de poseer consciencia.
La formulación más conocida de esta observación se debe al filósofo norteamericano John Searle, de la Universidad de California en Berkeley. Es el así llamado “argumento del cuarto chino”, expuesto en un artículo de 1980, “Mentes, cerebros y programas”[ix]. La tesis de Searle, que fundamenta en el “cuarto chino” (cuya explicación se dará a continuación) es muy concreta:
  1. La consciencia[x], en los seres humanos (y en los animales), es causada por las características del cerebro (Mario Bunge prefiere decir SNC, Sistema Nervioso Central[xi], que sería más preciso, dado que por ejemplo el cerebelo también participa en la actividad mental), y esto es un hecho empírico, a saber, que hay una relación de causalidad directa entre los estados/procesos mentales y los estados/procesos/actividades cerebrales. Dicho en pocas palabras: ciertos procesos cerebrales son suficientes para producir consciencia/intencionalidad.
  2. La instanciación de un programa de computadora nunca será condición suficiente para la consciencia/intencionalidad. El eje central del artículo de Searle es fundamentar esta petición, y lo hace por medio del experimento del “cuarto chino”.
  3. Las dos proposiciones anteriores tienen dos consecuencias directas:
    1. La explicación de cómo hace el cerebro para producir consciencia no puede ser que es por medio de un programa computacional.
    2. Cualquier mecanismo capaz de producir consciencia debe tener capacidades causales equivalentes a las del cerebro.
  4. Y, por último: cualquier intento de crear consciencia artificial (IA fuerte) no puede tener éxito sólo con diseñar programas computacionales, para ello debería ser capaz de replicar las capacidades causales del cerebro humano.
Ahora sí, el “experimento mental[xii]” llamado del “cuarto chino”: suponga que a una persona la encierran en un cuarto que no tiene ventanas, ni ningún sitio por el cual asomarse. Sólo una hendija por donde puede pasar una hoja de papel. En el cuarto la persona tiene una mesa de trabajo, donde hay un libro muy grande con instrucciones. Las instrucciones le permiten cotejar (relacionar) hileras de caracteres en chino con otras hileras de caracteres en chino. Son instrucciones en el idioma nativo de la persona, que ella puede entender. Entonces, por la ranura le pasan una hilera de caracteres en chino (que ella no entiende) y la coteja con otra, buscándola en el libro grande. Luego la copia en otra hoja y la entrega al mundo exterior por la ranura.
En tal situación, y bajo el supuesto de que no importa cuánto tiempo tarde la persona en cotejar, copiar y entregar la hoja (por eso es un experimento mental), se podría crear la impresión de que la persona entiende chino. La hipótesis, en este sentido, es que el libro con instrucciones sea lo suficientemente grande como para que al cotejar hileras en chino parezca en todo momento que la persona está entendiendo chino. Así parecería para alguien que está fuera del cuarto, pero para el que está adentro no: él seguiría para siempre sin entender chino, ni una jota.
En el fondo lo que Searle está argumentando es que no bastaría que una máquina pase la prueba de Turing, para poder afirmar que es inteligente en el mismo modo en que lo somos nosotros. Recuérdese Alan Turing propuso, en su histórico artículo “Máquinas de calcular e inteligencia”[xiii], de 1950, que si una máquina podía ganar en el “juego de la imitación”, entonces podríamos afirmar que “es inteligente” como nosotros. El test de Turing (como ha llegado a conocerse lo que él llamó “juego de imitación”) consiste en que una persona dialoga con un computador, y que éste trate de aparentar que es un ser humano. Turing lo que propone es que haya dos interlocutores (ambos invisibles para la persona que hace el experimento), y que uno sea humano y el otro una máquina. Si la persona no logra diferenciar cuál es humano y cuál es máquina, ésta ha pasado la prueba[xiv].
Un detalle curioso: Turing se atrevió a vaticinar (jugando a lo Kurzweil) que “dentro de 50 años” (es decir, en 2000, recuérdese que su artículo es de 1950), habría máquinas con 109 de capacidad de memoria. No explica si sería memoria principal o secundaria (o caché o cualquiera de las cosas que aún no había…), y si la unidad referida eran bits o bytes, pero cabe suponer que fuera lo primero. En tal caso, habría estado hablando de aproximadamente 125 megas de memoria, para el año 2000. ¡No andaba tan lejos, esa era más o menos la memoria disponible en una PC de hace 10 años! En lo que sí pifió es que, para él, tal tamaño de memoria sería más que suficiente  para poder programar una máquina que pasara el célebre test.
La publicación del artículo de Searle encendió la polémica, y como era de esperarse suscitó una serie de objeciones de los proponentes de A, es decir, de la IA fuerte. La mayoría son reseñadas por el mismo Searle en la parte final de su artículo, y en realidad no cuestionan la esencia de su argumento (como todo buen expositor, él se cuidó de no mencionar las tesis de real peso en su contra), pero la objeción planteada por Daniel Dennett[xv], sí representa un reto difícil de apañar, aunque se quede en el terreno de la especulación.
Dennett lo que afirma es que la consciencia (o intencionalidad o cualquier otro atributo de esta índole, típicamente mental) sería un fenómeno emergente, es decir, que se presentaría como el resultado de la agregación de una enormísima serie de capacidades computacionales (ver el ejemplo del televisor como fenómeno emergente, en la sección previa, donde se sintetizan las cuatro escuelas de pensamiento), y no como resultado de un “set-up” tan trivial como el de Searle. Es decir, que el programa – para cotejar hileras en chino - debería ser supremamente complejo, y la máquina extraordinariamente rápida, y la memoria – conocimiento previo adquirido sobre chino y los chinos y la cultura china, etc. – vastísima, en todo sentido.
Lo único que se puede concluir por ahora es que “no se sabe”, a menos que uno se atreva a adoptar el punto C , defendido por Roger Penrose, y el cual se presentará en la próxima sección. Pudiera ser que en efecto la consciencia emerja cuando se tenga una capacidad computacional producto de un “retorno acelerante” como el que ansía Kurzweil (ver notas del módulo primero), o pudiera ser que Searle tenga razón, y que la computadora no pase jamás de ser esencialmente un zombie, como bien establece Louis Cutrona en su artículo “Zombies in Searle´s Chinese Room”[xvi],  [11].
Para cerrar, estaría la cuestión del “¿y qué?”, que en inglés se diría “so what?”. Supongamos que una computadora pase el Test de Turing, y que su capacidad computacional sea tan enorme que no haya posibilidad práctica alguna de simular su comportamiento, vale decir, de observar paso a paso el algoritmo (meta-algoritmo) que está ejecutando. La máquina no sólo pasa la prueba de Turing, sino que, cuando se le pregunta que si ella es consciente, se ríe, levanta los brazos (podemos suponer que tiene todos los “periféricos” necesarios), y exclama ¡por supuesto!
Lo haría porque tendría la capacidad computacional para hacerlo (caso contrario no estaría pasando la prueba de Turing) y no podríamos saber si es cierto o no lo que está diciendo. Aclaremos: no sabríamos si es cierto o no desde nuestro particular punto de vista “mente-consciente-humana”. Ahí cabría exclamar, a nuestro turno: “bueno… ¿y qué?”, para después dejar a la máquina tranquila, porque no se podría hacer nada más que aceptarle su supuesta, o real, consciencia. 
Respuestas : Inteligencia Artificial cuántica.
El punto de vista C,  promovido por Penrose (en primer término en ENM, “Emperor New Mind”, su gran libro de 1989[xvii], [12], y en segundo término en “Shadows of the mind”, [4], donde amplía y refuerza la visión de ENM), se puede resumir en pocas líneas: las computadoras no podrán nunca ser inteligentes porque la mente humana es más que algorítmica.
Luego de estudiar con detenimiento a Turing y a Göedel, con sus respectivos teoremas y demostraciones de la incompletitud de los sistemas formales, Penrose desarrolla (con más concisión y claridad en [4]) la interesante tesis de que el ser humano logra construir cuerpos de conocimiento (de referencia usa el de la matemática) consistentes, en expansión y evolución constante, pero que no podrían haber sido el resultado de la ejecución de un algoritmo (un meta-algoritmo, representado en este caso por una máquina universal de Turing), sino que “de algo más”. Ese “algo más”, aventura Penrose, debe radicar en el hecho de que nuestras neuronas están hechas de materia que en el fondo (es decir, en su primera capa, tomando prestada la idea de los layers de ISO-OSI) responde u obedece a las leyes de la mecánica cuántica.
Si así fuera, se cumpliría el siguiente postulado, copiado directamente de [4]:
“Los matemáticos humanos no utilizan ningún algoritmo conocible y consistente, a efectos de establecer la verdad matemática”.
Es una afirmación que se podría extender a:
 “La inteligencia humana depende de la aplicación de algo que va más allá de cualquier algoritmo consistente y conocible”.
Otro aspecto en el cual los adherentes de A  suelen entrar en conflicto con los de C (e incluso los de B, si bien Searle no aborda el tema) es con respecto a si la máquina podría llegar a hacer más de lo que se le ha programado/ordenado. Se conoce como “régimen Lovelace”[xviii] a la negación de tal posibilidad. Esta denominación surge de que a mediados del siglo XIX, cuando Charles Babagge trataba de armar su máquina analítica, su compañera y gran matemática Ada Lovelace (hija de Lord Byron) anotó: “La máquina analítica no pretende originar nada. Puede hacer únicamente aquello que nosotros sepamos ordenarle que haga[xix]
Pues bien, en tanto que Minsky separa los paradigmas de programación en dos grupos, los de “haga ahora” (que sería la programación imperativa) y los de “haga siempre que” (que corresponderían a la programación declarativa, o por ejemplo a los algorimos genéticos) y concluye, de manera harto simplista, que los del segundo grupo superan el “régimen”, Penrose utiliza otra clasificación, más sofisticada. De una parte están las estructuras algorítmicas de tipo más tradicional, imperativas, que él denomina “top down”, y de otro los de tipo “generativo” (como los de sistemas expertos o de programación genética), que él denomina “bottom-up”. Y es enfático al decir que en ambas lo que se tiene, ni más ni menos, es un algoritmo que puede representarse con una máquina de Turing, vale decir, un conjunto de órdenes estructurado de alguna forma, pensado para que una máquina los ejecute. Y no hay nada nuevo bajo el sol en uno u otro paradigma: la máquina siempre estará ejecutando lo que se le haya programado y nada más.
En el debate existe un aporte del gran escritor Isaac Asimov, de suyo original, elegante y ameno. Es un ensayo incluido en la colección “El secreto del universo”, editada por Salvat en 1993,  llamado “Más pensamientos sobre el pensamiento”[xx].
Asimov comienza reflexionando sobre si está demostrado que la inteligencia humana sea superior a la de las demás especies, y encuentra que el cerebro del delfín es más grande y con más circunvoluciones en el córtex, y que ese animal emite más sonidos y más rápido que los de nuestro lenguaje hablado. La conclusión es fuerte y llamativa: lo que sucede es que hay diversos tipos de inteligencia, y el nuestro no por fuerza es el más “avanzado”, solo es distinto. Habría entonces que inventar un término que englobe (una clase abstracta, general) todos los tipos de inteligencia animal. Propone inventar el verbo “zornar”. Todos los animales “zornan”, y en particular el hombre “piensa”, que sería nuestra manera de “zornar”.
Ahora bien: ¿van las máquinas a pensar alguna vez como nosotros, o a zornar como algún animal? Ni lo uno ni lo otro. Así como los seres del mundo animal tienen diversas formas para desplazarse (el término genérico sería “locomoción”, y los específicos serían “volar, “reptar”, “caminar”, “trotar”, etc.), los seres del mundo tecnológico tienen formas nuevas de hacerlo, en particular “rodar”. No hay animales que rueden, pero los trenes, carros y bicicletas sí lo hacen.
Entonces, falta ese verbo, el equivalente al “rodar”, pero referente a la “inteligencia”, en su sentido más general. Asimov propone “tendar”. Así como los animales zornan y en particular el hombre “piensa”, así las máquinas “tendan”. Con este ingenioso y lúcido esquema, Asimov está de hecho (quizá sin proponérselo, porque Penrose aún había formulado sus tesis) coincidiendo con el matemático inglés en la posición C. En esencia, lo que él está diciendo es que mediante algoritmos, y estructuras de procesamiento estrictamente computacionales, las máquinas desarrollarán una capacidad nueva, “tendar”, equivalente por analogía al “rodar” de los carros o trenes, pero distinta, categóricamente, del pensar humano, y de cualquier otra forma de zornar. Y Asimov, cabe aclarar, no prevé límites para el “tendamiento”, con lo cual de alguna forma se matricula dentro de la IA fuerte, pero eso sí señalando que ese tendamiento nunca será como el pensamiento, que es precisamente lo que Penrose quiere encontrar con su hipótesis de que algo de naturaleza cuántica es lo que permite (en la base microfísica de todo el proceso neuronal) a nuestro cerebro tener los estados mentales y las funciones que precisamente tiene.
Respuestas : Inteligencia Artificial imposible.
Esta última posición es la de menor relevancia, justamente porque carece de carácter científico, o al menos de “pretensión” científica. Se debe a que los proponentes de D  no sólo niegan la posibilidad de que mediante algoritmos puedan construirse máquinas inteligentes en el sentido humano, sino que niegan la posibilidad de que la conciencia, la voluntad, la creatividad, el olvido, y tantas y tantas manifestaciones más que son propias de nuestra mente y nuestro cerebro, puedan algún día ser objeto de un esclarecimiento total, aplicando métodos científicos[xxi].
En otras palabras, todo esto constituye un ámbito fuera del alcance de la ciencia, y nos deberemos conformar con una visión llena de misterio y magia sobre el particular. Las razones que sustentan este tipo de posiciones no son triviales, y no nos estamos refiriendo a consideraciones de tipo místico-religioso, o a dualismos como el de Descartes, quien consideraba que existían dos ámbitos disjuntos: el cerebro y el sistema nervioso por un lado, de carácter material, y la mente-espíritu por el otro, de carácter inmaterial, creada por gracia de Dios o algo así. Nos estamos refiriendo a consideraciones de otra índole, especie de extensiones del teorema de incompletitud, según las cuales la explicitación de la mente humana no es posible que sea hecha por la misma mente humana, porque implicaría una especie de recursividad que en rigor es imposible.
Un texto de referencia, importante y lleno de acotaciones útiles sobre la disquisición mente-cerebro se debe a Mario Bunge, cuyo libro se llama justamente así: “El problema mente-cerebro” [8]. Si bien este autor adopta una posición claramente científica en su análisis, y recusa toda forma de dualismo mente-cerebro (de hecho adopta la misma posición “emergentista” que parecen compartir todos los autores aquí mencionados, en el sentido de que lo que hay es una sola cosa (de ahí “monismo”) y de que la mente “emerge” de su sustrato biológico, e decir el sistema nervioso central, especialmente el cerebro), el punto es que no se pronuncia claramente sobre si la ciencia / tecnología logrará alguna vez desentrañar el misterio, a efectos entre otras cosas de construir un cerebro artificial, con inteligencia artificial, consciencia artificial, etc.
Los señalamientos que hace Bunge sobre por qué motivos no es válida una teoría computacional de la mente como la de Minsky (que equipara el SNC, sistema nervioso central a una computadora) se presentan en la próxima lista:
  1. Las funciones que efectúan las máquinas no son funciones biológicas aunque, eso sí, podemos diseñar máquinas que imiten alguna función biológica.
  2. Mientras que todas las neuronas se activan espontáneamente, ningún componente de ninguna máquina tiene actividad espontánea –excepto si está estropeado. En concreto, la memoria humana es activa (quizá mejor: distorsionadora, a través de las funciones de abstracción/olvido/síntesis, que se cuentan entre las más sofisticadas y asombrosas de nuestra mente) en tanto que las memorias de las computadoras son pasivas (fieles)
  3. Las máquinas no están sometidas a mutación espontánea y a selección natural; no evolucionan espontáneamente, sino que evolucionan como resultado de la evolución humana (cultural)
  4. Todas las máquinas han sido diseñadas por algún hombre, mientras que todavía no hay ningún hombre que haya sido diseñado por nada ni nadie, en particular por una máquina. (Cabe señalar que ya estaríamos a las puertas de tal posibilidad, vistos los avances en ingeniería genética, y los cuales serán analizados en el tercer módulo del curso. Al escribir su libro, Bunge no tenía conocimiento de esto, y él no juega al futurismo, ni de lejos, tal y como lo hacen Moravec o Kurzweil).
  5. Todas las acciones de los animales tienen algún propósito y están orientadas a algún objetivo; sin embargo, cuando las acciones de las máquinas son de este tipo (es decir, persiguen un objetivo) lo hacen por poder, es decir, se comportan como lo han decidido sus diseñadores o sus usuarios.
  6. Como las máquinas no son seres vivos no pueden poseer propiedades psíquicas; como mucho pueden imitar los resultados de algunas de ellas (del mismo modo que los coches imitan el andar (Nótese aquí la coincidencia (tal vez fruto de que Bunge debe haber leído su ensayo) con la analogía elaborada por Asimov.)
  7. La dicotomía hardware-software no tiene sentido cuando la aplicamos a los cerebros; otra manera de decir lo mismo es que los cerebros se auto-programan en gran medida.
  8. Los computadores son industriosos, eficientes y hasta podríamos decir que listos, pero es muy difícil que podamos decir que son imaginativos, creativos u originales; pueden resolver problemas de ciertos tipos, aplicar teorías y valorar sistemas, pero lo que no pueden hacer es inventar alguno de éstos[xxii].
  9. Mientras los robots y los computadores son propiedad de alguien (de un individuo, organismo o Estado), la gente no es propiedad de nadie (excepto, por supuesto, que sean esclavos); resulta difícil imaginar que alguien pueda diseñar y fabricar un robot que suspirara por la libertad, sintiera compasión de sí mismo  e indignación moral, etc.
  10. Los modelos computacionales del cerebro son modelos de caja negra que olvidan la especificidad biológica de los componentes cerebrales, su desarrollo y su historia evolutiva; por tanto, no nos dicen qué es lo que los hace especiales.
Algunas conclusiones
Nadie puede negar los maravillosos avances de la IA, y el impacto profundísimo que sus productos han tenido y seguirán teniendo sobre la sociedad contemporánea. Bástenos señalar que el procesamiento de textos – hoy día la utilización más abundante de la TI – empezó siendo un nicho de investigación en IA. En otros campos más concretos o especializados, también ha habido éxitos resonantes. Uno que sin duda adquirió connotaciones de gran noticia mundial, fue cuando a fines de los noventa el programa Deep Blue derrotó al campeón mundial de ajedrez Garry Kasparov en un match de seis partidas.
Sin embargo, de ahí a que las máquinas hayan logrado “verdadera” inteligencia artificial, sigue habiendo el mismo abismo insondable que había al principio del cuento, allá por 1956 cuando se acuña el término IA, y un grupo de investigadores (promovido por John McCarthy) se reúne y funda la disciplina. Tan es así, que hoy día ya nadie se fija en los resultados del concurso anual que se realiza para ver si una máquina es capaz de superar el test de Turing. Este concurso, el premio Loebner[xxiii], tuvo este año un pequeño “boom”: se logró que un programa confundiera a un 25% del auditorio, durante varios minutos, pero sobre la base de una interlocución hecha con SMS, es decir, mensajes de texto cortos como los de los celulares. De ahí a poder simular una conversación real, ágil, matizada, con énfasis tonales y gestuales, está el mismo abismo de siempre. Y si con SMS sólo se logró confundir a la cuarta parte de los interlocutores, pues el panorama es severo: ¡no se puede!
Tal vez, lo que pasa es que la disciplina debió desde un principio haberse llamado “IS”, inteligencia simulada, en vez de inteligencia artificial. Habría habido una expresión de sinceridad, una confesión directa, en el término.
Las sorpresas, por supuesto, no faltarán. Siempre es lo mismo: giros inesperados, laberintos que se abren donde creíamos que estaba y estaría para siempre un muro sólido, o bien paredes impenetrables que se erigen donde veíamos un terreno abierto, fértil para el progreso de las ideas. No deja de tener gran sentido la ley de los retornos acelerantes de Kurzweil, ni de existir grandes posibilidades con el advenimiento de IC, inteligencia colectiva (tema del módulo 4 del curso), y nadie puede con sensatez excluir la posibilidad de cambios violentos de paradigma a lo largo del presente siglo. Pero con lo que hasta ahora se ha visto y logrado, la respuesta a la pregunta ¿Puede una computadora ser inteligente? Debería ser ¡todavía no!, agregando ¡y quizá nunca!
Notas:


[i] Distinta interpretación se le daría en España, cabe aclarar, donde el uso del pasado compuesto equivale al del pasado simple según se emplea en Latinoamérica (salvo en Perú, he notado), y en una amplia gama de circunstancias.
[ii] Es decir, algo que puede ser ejecutado por una máquina de Turing, según se aclarará más adelante en estas mismas notas.
[iii] Véase “La singularidad está cerca”; (The singularity is near) de Raymond Kurzweil, disponible en PDF en el Web
[iv] Véase el ensayo “Trascendencia y evolución de la tecnología”, preparado para el primer módulo de este curso.
[v] Technology of mind and a new social contract, Bill Hibbard. Visible en http://www.iheu.org/node/2601
[vi] Roger Penrose, Shadows of the mind, Oxford Press, 1994.
[vii] Claudio Gutiérrez, Antología Informática y Sociedad, visible en: http://www.claudiogutierrez.com/bid-fod-uned/MarvinMinsky.html
[viii]  Theodore Roszak, The Cult of information, Pantheon Books, New York, 1986.
[x] Searle usa el término “intencionalidad”, que si bien hace referencia a otro rasgo de la inteligencia, puede asimilarse al de “consciencia”, dado que ésta sería, en última instancia, el prerrequisito para que hubiera intencionalidad.
[xi] Mario Bunge, El problema mente-cerebro, Editorial Tecnos, 1986.
[xii] En alemán “gedankenexperiment”, concepto que hace referencia a algo que no puede suceder en la realidad, sólo en la mente, pero que sí es atinente como escenario, o ejemplo, de una idea que se está debatiendo.
[xiii]  Publicado en “Mind”, Revista de Psicología y Filosofía, en 1950. El texto completo en inglés puede verse en http://www.abelard.org/turpap/turpap.php
[xiv] [xiv] Recientemente mi hija Carmen debió sufrir una dolorosa operación para corregirle su tabique nasal. Se necesitaba anestesia total, y una vez que le fue inyectada, la trasladaron en silla de ruedas al quirófano. Para mi sorpresa, iba con los ojos abiertos, y dialogaba conmigo. “¿Cómo te sentís, hija”. “Bien, papi”. “Todo va a salir bien, mi amor…” “Sí, todo va a salir bien”. Etc. Le pregunté al anestesiólogo: “¿por qué puede conversar si usted ya la durmió?”. “Es que la anestesia es algo más complicado de lo que normalmente se piensa”, me contestó. “Tiene varias partes, la primera sólo suprime la conciencia. Luego actúa, minutos más tarde, la que produce el sueño total”. “O sea, ¿mi hija no era consciente de este diálogo que acabamos de tener?”, pregunté. “No, no se va a acordar”, fue la respuesta tajante del médico. De golpe se me aclaró por qué el tono de mi hija era raro, distinto en algún modo misterioso. Su mente se manifestaba, durante la breve conversación, de modo plano, cuasi-automático. O sea, mi hija iba para el quirófano en estado “zombi”. Aquí, aclaro el por qué de esta nota al pie, se demuestra que Turing al cabo no tenía razón. Ella, Carmen, no tenía conciencia (en el sentido de Searle), ¡aunque sí era capaz de pasar la prueba de Turing! (Véase más adelante la referencia a un artículo de L. Cutrona, que va en la misma línea expresada en esta nota.
[xv]  Visible en http://www.claudiogutierrez.com/bid-fod-uned/Searle.html, es decir, en la Antología de Informática y Sociedad de Claudio Gutiérrez, disponible en línea.
[xvi] [11] Zombies in Searle’s Chinese Room: Putting the Turing Test to Bed, Louis J. Cutrona, Jr., visible en http://cogprints.org/4636/1/TR-05-002.pdf.
[xvii] Roger Penrose, The emperor´s new mind, Oxford Press, 1989
[xviii]  La expresión viene de un pequeño libro de un autor francés, Adrián Berry, “La máquina superinteligente”, que cometí el error (reiterado en mi experiencia) de prestar hace muchos años sin anotar a quién.
[xix] Las cursivas, según anota Turing en su ensayo de 1950, las puso la propia Ada Lovelace.
[xx] Isaac Asimov, El secreto del universo, compilación de ensayos, Editorial Salvat, 1989.
[xxi] Mi queridísimo amigo Francisco Quesada Chaverri recientemente afirmó, en una entrevista publicada en You Tube, http://www.youtube.com/watch?v=Jt7FadhWjUI (donde debía leer un poema favorito suyo, actividad a la que a mí también me invitaron), que no leía -de preferencia- literatura porque prefería leer de ciencia y filosofía, donde encontrará conocimiento “real” y no las meras especulaciones o devaneos de los narradores y poetas. Él, sin embargo, defiende esta tesis “D”, según la clasificación de Penrose. No deja de llamarme la atención la infinita ductilidad del pensamiento humano. Alguien que es, de formación, físico y matemático, y quien prefiere el conocimiento de “la realidad” (se puede corroborar esto en su entrevista), respondió sin embargo enfático y sin ningún titubeo cuando le expuse el esquema de Penrose: “¡La conciencia es algo espiritual, más allá de toda posible comprensión de la ciencia!”.
[xxii] En este punto en particular, la oposición Minsky-Bunge es rotunda.
[xxiii]  [14]Véase la página del premio Loebner en: http://www.loebner.net/Prizef/loebner-prize.html

1 comentario: