Nick
Bostrom es un filósofo sueco, profe-sor de la Universidad de Oxford,
y director del Instituto del Futuro de la Humani-dad, que se ha
desta-cado por trastocar los límites de lo que se entiende por
existen-cia humana. Sus disertaciones son fuertes y arriesgadas, cosa
extraña en el mundo académico.
Algunos
de los temas que han puesto a este filósofo de 44 años en la palestra son sus
trabajos en torno a temas como el 'principio antrópico', 'el
riesgo existencial', 'los riesgos de la superinteligencia', 'el
consecuencialismo' y 'la tecnología futurista'. Con
algunos de éstos términos quizás estemos familiarizados,
con otros tal vez no, sin embargo procuraremos hacer un breve
repaso de uno de sus temas fundamentales: la Inteligencia
Artificial (IA).
Una de
las mayores preocupaciones de Bostrom son los avances y las
implicaciones de la IA. Pues aunque la
irrupción de tales avance signifiquen beneficios para
la humanidad en áreas como la producción industrial,
la salud, la exploración espacial, la comprensión científica
y muchos otros, podría traer consigo problemas de
seguridad, dislocaciones en el mercado de trabajo, así como el
mal uso y posibles accidentes.
Pero
los riesgos son mayores aún, pues no deja de
preocu-par la socialización de dichos beneficios; se sabe bien que estos procesos, son profundamente elitistas y usureros.
Una
vez más, como ocurriera en el pasa-do, particularmente en la Europa
del siglo XIX, el fantasma de la técnica abre una serie de
interrogantes, a-nhelos y preocupa-ciones. Y es que ahora, tanto las
expectativas como los temores, se han incrementado expo-nencialmente,
pues no hablamos sólo de una máquina que acelera el proceso
productivo cuya eficiencia desplaza la mano de obra humana; esta vez,
las maquinas son sistemas de cómputo que, piensan, analizan y toman
decisiones. Esto marca un cambio cualitativo digno de llamar la
atención del mundo entero, máxime si prevalecen, como ya hemos
señalado, esquemas donde una élite se instala en el pináculo de la
pirámide civilizatoria, preservando un estado de cosas de tipo
darwiniano.
Imaginemos
la aplicación de la Inteligencia Artificial (o superinteligencia),
por modesta que sea, tomando decisiones en ámbitos, además de los
ya citados (salud, industria, ciencia, educación, etc), en
temas aún más delicados como el militar y el gobierno. Bostrom
advierte en este sentido:
“En vista de lo mucho que podría estar en juego, por modesta que sea, la IA que se está desarrollando para las próximas décadas, ofrece razones suficientes para realizar un examen cuidadoso”.
En
este sentido, Nick Bostrom expone el trabajo de Erik Drexler que
con sus investigaciones sobre los avances de la computación
cuántica, prevé la aparición de sistemas del tamaño de un cubo de
azúcar que podría realizar 10²¹ instrucciones por segundo (un 10
seguido de 21 ceros). “Tal capacidad haría posible, por ejemplo,
que las próximas generaciones puedan elaborar simulaciones
detalladas de las vidas de sus antepasados. Es más,
sería lógico pensar que podrían realizar no sólo una, sino un
montón de esas simulaciones, ya que el poder de cómputo esperado es
elevadísimo”.
Con
estas posibilidades técnicas, afirma Bostrom, “la probabilidad de
que vivamos en una simulación es alta. Pensemos en que si nuestros
parientes del futuro deciden hacer una única simulación, nuestra
probabilidad de vivir en ella es de un 50% (o somos la civilización
que en el futuro producirá la simulación o somos la simulación
misma)...”
Y
lo que sigue, es muy interesante: “...pero si nuestros parientes
deciden hacer más de una (simulación), las probabilidades de ser
una civilización real van bajando: 1/3, 1/4, 1/5… Si decidieran
hacer un ‘laboratorio de simulaciones’, pongamos 50 mundos
virtuales, la probabilidad de ser una civilización no simulada sería
mínima (0,02%) o, con la cifra inversa que suena más contundente:
tendríamos un 99,98% de probabilidad de vivir en un mundo simulado”.
Lo
anterior plantea el argumento transhumanista de
Bostrom, sin embargo, como se vio al inicio del artículo, sus
postulados son diversos e inquietantes. Aquí
algunas de sus obras: Sesgo
antrópico: efectos de la selección de observación en la ciencia y
la filosofía (2002), Riesgo
ca-tastrófico global (2008), Mejoramiento
humano (2009), Superinteligencia:
caminos, peligros, estrategias (2014).
En
futuros artículos daremos seguimiento a este y otros autores que
tocan temas parecidos, pues además de interesantes y profundos, son
una referencia esencial para tener una perspectiva sobria y
documentada sobre el futuro.
No hay comentarios. :
Publicar un comentario