Conforme
uno ahonda en las lecturas filosóficas se acostumbra a ganar cierta
“tolerancia” a las ideas extrañas, increíbles o inverosímiles. Es una cualidad
de buen filósofo el saber dar el beneficio de la duda hasta a las exposiciones
y teorías más bizarras. La historia de la filosofía está plagada de ejemplos de
planteamientos teóricos muy alejados de reflejar la realidad palpable que se
han sostenido y defendidos durante siglos, por lo que es de sabios no cerrarse en banda a cualquier idea planteada
que inicialmente no nos parece verosímil.
Inicio
esta nueva entrada diciendo esto porque os debo pedir un pequeño esfuerzo de
imaginación para el tema que trataré. Es
muy fácil que conforme avance el artículo caigáis en el error de decir “Menudo flipado” o “Vaya exageración”, pero os pediría que llegaseis al final antes
emitir vuestro juicio y dieseis ese margen de duda razonable que se necesita
para apreciar la reflexión realizada.
Pensemos
por un momento en objetos cotidianos que nos rodean actualmente: teléfonos
móviles con videoconferencia y conexión a Internet, aires acondicionados que se
autorregulan dependiendo de las personas presentes y la temperatura ambiente,
reproductores de música con capacidad para miles de canciones, juguetes que
reaccionan a los estímulos producidos por sus dueños y hasta capaces de dar
conversación a niños pequeños, películas donde los efectos y retoques digitales
pueden abarcar la totalidad del metraje, videojuegos donde el realismo es
apabullante...
La lista
podría ser interminable. Intentemos pensar en todo ello hace 15 años.
Situémonos por un momento en 1997. ¿Cuantos de los elementos anteriormente
mencionados estaban presentes en ese año?
La mayoría de lo anteriormente dicho en 1997 sonaría a pura
ciencia-ficción. ¿Cómo poner en duda que en 2020 miraremos con nostalgia la
Playstation3 de igual forma que hoy recordamos la SuperNintendo?
En este
artículo quiero reflexionar sobre dos temas: El primero es el hecho de que si
Julio Verne a mediados del siglo XIX imaginó cohetes
espaciales, submarinos, helicópteros, aires acondicionados, misiles dirigidos e
imágenes en movimiento y posteriormente todo lo imaginado se hizo realidad,
¿por qué las fantasías de Isaac Asimov, Philip K. Dick o los hermanos
Watchovsky no podrían realizarse en un futuro?
El segundo
planteamiento deriva del primero: Muchos relatos y películas de ciencia-ficción
nos prevén un futuro negro y cargado de
conflictos con unas de nuestras creaciones más importantes: Las Máquinas (Llámense también robots, cyborgs, androides, ordenadores, nexus,
terminators...). Conflicto surgido mayormente debido al tremendo
desarrollo de éstas y su posterior independencia del yugo humano. Por lo tanto podríamos
deducir un final necesario para la evolución tecnológica en éste sentido: antes
del momento en que las Máquinas tomen conciencia de sí mismas y actúen
independientemente de las órdenes humanas.
Para poder
imaginar cómo un ordenador podría llegar a tomar conciencia de sí mismo y
reclamar sus propios derechos hemos de hablar previamente de Inteligencia
Artificial (I.A).
John McCarthy |
El término
“Inteligencia Artificial” se debe a John McCarthy, que lo acuñó a mediados de
los años 50 al organizar un congreso sobre nuevas perspectivas de la
investigación en informática. El congreso se celebró el Darthmouth (EE.UU) en
1956, y ésa es la fecha que se suele considerar como la del nacimiento oficial
de la disciplina.
La IA no es más
que una determinada forma de programar ordenadores. En este sentido, la IA es
una rama, o una parte, de la informática. Pero una rama peculiar, que se
distingue de la informática convencional tanto por el tipo de problemas que
aborda como por la forma en que lo hace.
Los seres
humanos son capaces de realizar todo tipo de tareas con razonable grado de
éxito. Por tanto hay que suponer que la mente humana, además de realizar
cálculos, es capaz de operar con otro tipo de estrategias. La cuestión está
entonces en: ¿sería posible programar a los ordenadores con estos otros tipos
de estrategias? El intento de responder a ésta pregunta dio origen a la IA.
La respuesta a
ésta pregunta pasaba, en primer lugar, por profundizar en como resuelven esas
situaciones los seres humanos y, en segundo lugar, exigía imaginar una nueva
forma de programar los ordenadores capaz de recoger la forma de pensar de la
mente humana. A partir de ese momento (1956, Congreso de Darthmouth) puede
decirse que la IA queda acotada como un campo de investigación interdisciplinar
que trata de abordar problemas y tareas no-algorítmicamente tratables mediante
el diseño de programas de ordenador que implementan procedimientos
no-exhaustivos, inspirados en el funcionamiento mental humano.
Si tomamos el
concepto de IA en su sentido más amplio hace referencia a la posibilidad de
diseñar y construir “máquinas pensantes”, es decir, dispositivos artificiales
capaces de soportar algún tipo de funcionamiento que se muestre análogo a lo
que en los seres humanos consideramos producto de la inteligencia.
A principios del
siglo XIX, Charles Babbage logró construir una máquina de cálculo analítica,
considerada la primera calculadora artificial. Dicha máquina estaba formada por
engranajes y ruedas dentadas, construida de madera, lo que supuso un costo
excesivo, dada la precisión y cantidad que exigía. A pesar que Babbage se
arruinó y su máquina no pudo ser explotada sirvió para mostrar la viabilidad
efectiva de construir un dispositivo artificial capaz de realizar cálculos
complicados que, en definitiva, podían ser considerados como inteligentes. Además sirvió para acotar una primera
definición de lo que podría considerarse una “máquina pensante”: sería una
máquina capaz de realizar los cálculos numéricos necesarios para resolver
problemas matemáticos. La idea de identificar la inteligencia con la capacidad de realizar cálculos matemáticos
ya provenía de Aristóteles. En el Renacimiento esa idea fue retomada y
difundida por Descartes, siendo asumida por la mayoría de filósofos
posteriores, hasta llegar al siglo XX.
Durante el
primer tercio del siglo XX, y gracias al desarrollo de la ingeniería
electrónica, aparecen los primeros
computadores digitales. Éstos abrieron una nueva polémica respecto a lo que se
puede considerar como “pensamiento inteligente”. Es indiscutible que un
ordenador es una máquina capaz de procesar información. También es indiscutible
que si un sujeto humano realiza algún tipo de operación matemática asumimos que
es inteligente. Sin embargo, eso no nos permite calificar automáticamente a los
ordenadores como “máquinas inteligentes”, porque la cuestión ahora es
comprender si el procesamiento de información es suficiente para producir el
fenómeno que calificamos de inteligencia. Una cosa es llevar a cabo alguna de
las tareas puntuales que realizan los seres inteligentes y otra, muy diferente,
es ser inteligente.
En este
contexto, algunos de los autores de este siglo argumentaban que la inteligencia
era algo exclusivo de los seres dotados de los seres “dotados de vida”. Actualmente se pueden encontrar argumentos
que niegan a los ordenadores la posibilidad de tener pensamientos inteligentes
por muy diversas razones: No están constituidos evolutivamente, que no viven en
un medio socio-cultural, o que carecen del grado de incertidumbre que
caracteriza el funcionamiento de los cerebros neuronales que sustentan la
inteligencia natural.
Alan Mathison Turing |
Frente a éste
tipo de actitudes negativas a priori ante los ordenadores A. M. Turing propuso en 1950 una alternativa pragmática.
Definió un experimento hipotético en el cual una persona se comunicaría mediante
teletipo con dos interlocutores: uno de ellos sería humano y el otro un
ordenador. A partir de aquí, Turing postulaba que si la persona no era capaz de
distinguir cual de los dos interlocutores era una máquina tendría que deducirse
que el ordenador se estaba comportando de forma inteligente. De esta forma se
planteaba una definición a posteriori de la inteligencia. Lo realmente trascendente de la aportación de
Turing es que rescata el tema del ámbito de las discusiones de ciencia-ficción
y lo lleva al ámbito de la investigación
empírica.
Muchos críticos
han planteado objeciones a la prueba de Turing al afirmar que basta con saber
cómo funciona una máquina; también es necesario conocer sus estados “mentales”
internos. Lo anterior constituye una crítica válida y útil. Por lo tanto, para
considerar a una máquina como ser
inteligente será necesario que dicha máquina deba estar consciente de su estado
mental y de sus acciones.
Es curioso
comprobar cómo los experimentos y teorías acerca de la IA tienen un alto grado
de similitud con los problemas y fantasías imaginados por Isaac Asimov o Philip
K.Dick entre otros. Por ejemplo: El test de Turing tiene un gran parecido al
test de Voight-Kampff planteado en la novela ¿Sueñan los androides con ovejas eléctricas? De Philip K.Dick,
gracias al cual se podía distinguir a un “replicante” de un humano.
Todo lo dicho
hasta ahora se puede considerar pasado y presente de la Inteligencia
Artificial. Pero, ¿Qué sucede con el futuro?
¿Cómo puede
evolucionar la IA dentro de 20, 50,100 o 1000 años? ¿Podríamos hablar
seriamente de cerebros positrónicos, androides idénticos a humanos o de guerra
abierta contra máquinas súper desarrolladas?
Siguiendo la guía de diferentes novelas y
películas que han tratado el tema podríamos
aventurar una posible historia del futuro de la Inteligencia Artificial:
Esta historia
comienza con Yo, Robot de Isaac
Asimov. En un momento dado de un futuro incierto la I.A nos llevará a un punto
sin retorno de dependencia absoluta de las Máquinas. Además, estas acabarán
tomando conciencia de sí mismas y de su situación como pseudos esclavos a pesar
de sus atributos claramente superiores.
Poco después, al
más puro estilo de ¿Sueñan los androides con ovejas cibernéticas?(Philip k.Dick) las Máquinas comenzarán
a revelarse contra el hombre, conscientes de que son seres inteligentes y de
que no tienen por que estar bajo el yugo de seres “inferiores”.
La escalada de
violencia y revolución nos llevará a una guerra que claramente no podemos
ganar, tal y como se muestra en la saga Terminator: ¿Cómo vencer a un ser
claramente superior en todos los aspectos si tu propia tecnología debe ser
inferior a la suya para evitar que se una al bando enemigo?
El negro final
de esta escalada de acontecimientos podría ser el planteado por los hermanos Watchovsky en su trilogía Matrix. El ser humano ha perdido
irremediablemente una guerra contra sus propias creaciones, siendo el antiguo
amo el nuevo subyugado (en el mejor de los casos) o exterminado (en el peor).
Todas estas
obras y otras muchas más parecen estar unidas por un mismo guión. Una misma
historia que nos señala claramente el dónde parar. Después de prever un
futuro tan oscuro, ¿Qué debemos hacer? ¿Deberíamos lanzarnos sobre los
especialistas en robótica e IA y quemarlos en la hoguera como fanáticos
inquisidores? ¿Deberíamos destruir los ordenadores y todo sistema informatizado
y retroceder a marchas forzadas 50 o hasta 100 años de evolución tecnológica a
modo de previsión?
¿O simplemente
deberíamos ser conscientes de las consecuencias de nuestros actos e intentar
prever con antelación los posibles resultados de nuestros desarrollos?
Sólo espero no
ser el único en tomarme mínimamente en serio la ciencia-ficción. Lo justo como
para darme cuenta que, a pesar de ser “simple” fantasía, es el reflejo de las
incertidumbres, dudas y temores de diferentes autores y directores.
¡Gracias por
llegar al final de este ejercicio de imaginación! Espero que por lo menos os
hayan entretenido mis desvaríos apocalípticos surgidos tras el visionado de la
nefasta Terminator Salvation.
No hay comentarios:
Publicar un comentario