lunes, 6 de febrero de 2017

"Aquí hay dragones", de Olle Häggström (2016)

Resumen del libro "Aquí hay dragones", de Olle Häggström (2016)

Ver el resumen original y actualizado:
http://evpitasociologia.blogspot.com/2017/02/aqui-hay-dragones-de-olle-haggstrom-2016.html

..............................................................................................................

Título: "Aquí hay dragones"

Subtítulo: "Ciencia, tecnología y futuro de la humanidad"

Título en inglés: "Here be dragons. Science, Technology and the Future of Humanity"

Autor: Olle Häggström

Editorial en inglés: Oxford University Press, 2016

Edición en español: Tell Editorial, 2016 (Todo está en los libros)

Páginas: 284

..............................................................................................................

Biografía oficial del autor Olle Häggström (hasta 2016)

Olle Häggström es profesor de estadística matemática en la Universidad Tecnológica de Chalmers, y miembro de la Real Academia Sueca de Ciencias, encargada de decidir la concesión de los Premios Nobel.

Sus logros más notables en investigación los ha enfectuado en teoría de la probabilidad, pero sus intereses de estudios interdisciplinares son muy amplios e incluyen la ciencia climática, la inteligencia artificial y la filosofía. Tiene más de ochenta publicaciones en revistas científicas y es un prolífico escritor en su propio blog de Internet, sobre ciencia.

..............................................................................................................

Texto de la contraportada

"En la edad media había mapas cartográficos que en los territorios inexplorados dibujaban un Dragón, símbolizando así que allí podían encontrarse peligros inesperados, de ahi el título de este libro que nos habla del futuro de la humanidad.

Existe una idea muy extendida que afirma que el progreso de la ciencia y la tecnología es nuestra salvación y que, cuanto más mayor sea, mejor para nosotros.
Sin embargo, ésta es una actitud excesivamente simplista e incluso peligrosa.
Aunque el futuro seguramente conllevará grandes cambios causados por ese progreso, está lejos de ser cierto que todos esos cambios vayan a ser para mejor.

El ritmo de desarrollo tecnológico sin precedentes que presenció el siglo XX ha permitido que nuestras vidas sean muy distintas a lo que eran a comienzos de ese mismo siglo. No hay ninguna desaceleración a la vista y el siglo XXI, con casi total probabilidad, verá más cambios revolucionarios que el XX, debido a los avances en ciencia, tecnología y medicina.

Podemos esperar que la biotecnología, la nanotecnología y la inteligencia artificial sean ámbitos donde tengan lugar avances extraordinarios y tal vez perturbadores.

También es posible que tengamos a la vista diversas formas de mejorar las capacidades cognitivas humanas y de otro tipo mediante fármacos, ingeniería genética o procedimientos de interrelación cerebro-máquina; tal vez hasta el extremo de modificar la naturaleza humana más allá de lo que actualmente consideramos humano y hacia una era post-humana.

Los posibles beneficios de todas estas tecnologías son enormes, pero también lo son los riesgos, incluida la posibilidad de extinción del ser humano.

Este libro es un apasionante llamamiento por hacer todo lo que podamos para cartografiar los territorios que tenemos por delante de nosotros, y para actuar con previsión, de forma que maximicemos nuestras posibilidades de recoger los beneficios de las nuevas tecnologías, a la vez que evitamos los posibles peligros".

Comentario de la solapa

"Aquí hay dragones (Here be dragons) merece ser leído por todos los científicos e ingenieros, y especialmente por los estudiantes de posgrado que consideren la posibilidad de involucrarse en alguna investigación innovadora.
Su sentido de la precaución es profundo, sincero y libre de polémicas luditas: es un estimulante intento de equilibrar la búsqueda de innovaciones científicas con una humildad al antiguo estilo... [este libro] es una verdadera provocación esencial".

Revista New Scientist

.............................................................................................................................................

ÍNDICE

1. Ciencia para lo bueno y ciencia para lo malo

- Un descubrimiento horrible

- El dilema ético de ocultar hallazgos de investigación

- Algunos ejemplos en el mundo real

- La necesidad de una política de investigación bien informada

- ¿Una labor inútil?

- Un anticipo

2. Nuestro planeta y su biosfera

- Una nota para el lector

-Cambios dramáticos en el clima del pasado

- Calentamiento por el efecto invernadero

- Los ciclos de Milankovitch

- El papel del dióxido de carbono

- La necesidad de emprender acciones

- Una propuesta de geoingeniería: azufre en la atmósfera

- Otras formas de geoingeniería

- No hay una solución milagrosa

- Buscando nuevas soluciones originales


3. ¿Obtener mejores seres humanos mediante ingeniería?

- La mejora del ser humano

- La dignidad humana

- ¿La sabiduría de la repugnancia?

- La libertad morfológica y el riesgo de carreras armamentísticas

- Ingeniería genética

- La interrelación cerebro-máquina

- Vidas más largas

- Transferencia de datos: problemas filosóficos

- Transferencia de datos: problemas prácticos

- Criogenización


4. La revolución informática

- Cantor

- Turing

- La revolución informática, hasta nuestra época

- ¿Desempeñarán nuestro trabajo los robots?

- Explosión de inteligencia

- Los objetivos de una máquina súper inteligente

- La objeción de Searle


5. Hablando de lo muy pequeño

- Impresoras en tres dimensiones

- Fabricación con precisión atómica

- Nano-robots dentro de nuestros cuerpos

- La plaga gris y otros peligros


6. ¿Qué es la ciencia?

- Bacon

- ¿Son negros todos los cuervos?

- Popper

- Una visión equilibrada del falsacionismo de Popper

- ¿Es científico el estudio de una futura explosión de inteligencia?

- Significancia estadística

- Quienes toman decisiones necesitan probabilidades

- ¿Es posible un bayesianismo consistente?

- Ciencia e ingeniería


7. El falaz Argumento del Juicio Final

- El Argumento del Juicio Final: la versión básica

- Por qué la versión básica es errónea

- La versión frecuentista

- La versión bayesiana


8. ¿Juicio Final, a pesar de todo?

- Clasificando y evaluando peligros concretos: algunas dificultades

- Peligros procedentes de la naturaleza

- Peligros derivados de la acción humana

- ¿Hasta qué punto nos encontramos en problemas?


9. La colonización espacial y la paradoja de Fermi

-La paradoja de Fermi

- El Gran Filtro

- Colonizando el universo

- La búsqueda de inteligencia extraterrestre dysoniana

- Gritando al cosmos


10. ¿Qué queremos y qué deberíamos hacer?

- Hechos y valores

- Descontando

- ¿Prevención de los peligros existenciales como prioridad global?

- No apoyo la apuesta de Pascal

- ¿Qué hacer?

...................................................................................................................................................

RESUMEN

El propio autor hace un resumen de su libro en las páginas 12 a 14 y que paso a reproducir

"Capítulo 2: Señala que hasta que emigremos al espacio exterior (una posibilidad que se trata en el capítulo 9) o modifiquemos radicalmente nuestro aspecto físico (capítulo 3), necesitamos que el planeta Tierra siga siendo habitable para los seres humanos y capaz de mantener la agricultura y otros sectores vitales para la civilización, tal y como la conocemos.
El autor añade que el planeta ha pasado por dramáticos cambios en el pasado y parece que actualmente lo estamos forzando, a una velocidad récord, hacia cambios similares, con posibles resultados peligrosos.
Varios problemas medioambientales son esenciales pero aquí se centra principalmente en el tan debatido calentamiento global y las diversas formas de afrontarlo, incluidas algunas sugerencias para conseguir rápidas soluciones tecnológicas.

Capítulo 3. El autor cree que tal vez estemos a punto de transformarnos radicalmente utilizando métodos farmacéuticos, genéticos, electrónicos u otros, lo que permitiría enormes mejoras en nuestras capacidades físicas, cognitivas y quizás morales. Los posibles beneficios parecen enormes, pero también lo son los riesgos. ¿Deberíamos entonces seguir este camino? Se trata de un tema muy polémico, cargado de problemas morales que aún son desconocidos. Las características especialmente difíciles podrían resolverse si aprendiésemos a transferir nuestras mentes al disco duro de un ordenador.

Capítulo 4. La actual revolución informática está cambiando nuestras vidas. Después de una descripción histórica, el resto del capítulo se centrará en ver hasta dónde podría llevarnos. Un problema de interés especial es lo que podría ocurrir si, y cuando, se consiguiera el sagrado grial de la inteligencia artificial; una máquina que iguale o supere a los seres humanos en términos de inteligencia general. Podría llegar a ser una revolución informática de una magnitud mucho mayor de lo que hemos visto hasta ahora y hay interesantes problemas teóricos sobre si podría dar lugar a un desarrollo muy rápido hacia inteligencias sobrehumanas, más avanzadas aún. A ese efecto de bola de nieva se le llama la Singularidad pero siguiendo la terminología de Yudkowsky (2013a) y Bostrom (2014) lo llamará explosión de inteligencia.

Capítulo 5. El autor indica que nuestra capacidad para manipular la materia está mejorando gradualmente y tal vez nos encaminemos hacia una producción de precisión atómica en términos generales. Aunque las actuales impresoras en tres dimensiones sean caras y estén limitadas a un rango específico de materiales, la superación de estas limitaciones podría abrir el camino al tipo de paraíso en que podríamos tener lo que quisiéreamos, esbozado en la cita de Eric Drexler, de la sección 1,4, Pero también hay riesgos.

Capítulo 6. Para algunos temas relacionados con adónde nos puede llevar la ciencia puede ser útil entender lo que es en realidad la ciencia. En este capítulo se exponen una serie de temas clave sobre teoría de la ciencia, con especial énfasis en el papel central desempeñado por las herramientas y la teoría de la estadística. Esto también pondrá las bases de algunas (matemáticamente simples, pero a veces filosóficamente bastante sutiles) argumentaciones estadísticas que discute en captitulos posteriores. Expone la relación entre ciencia e ingeniería.

Capítulo 7 y capítulo 8. El autor afirma que entre los diversos posibles caminos futuros tomados por la humanidad, algunos terminan con la extinción dentro de un período de tiempo tan pequeño como siglos o incluso décadas. La posibilidad de la extinción del ser humano es el tema de los capítulos 7 y 8. Muchos pensadores que creen que vale la pena tomárselo en serio, como por ejemplo el astrofísico y anterior presidente de la Royal Society, Martin Rees, en un libro con el alarmante título de Nuestro último siglo (2003) atribuyen una probabilidad sustancial al acontecimiento de la extinción antes de finales del siglo XXI.

 El autor discute algunas de las causas posibles o probables que pueden desencadenar ese apocalipsis. Después de la antología Riesgos catastróficos globales de Bostrom y Cirkovic (2008) pueden clasificarse aproximadamente en tres categorías: a) riesgos procedentes de la naturaleza b) riesgos procedentes de consecuencias no intencionadas de acciones humanas, y c) riesgos procedentes de acciones humanas hostiles.

Aunque esta clasificación resulte ser parcialmente problemática  (porque se puede decir que algunos de los escenarios más plausibles del apocalipsis pertenecen a más de una categoría) un examen de los diversos riesgos tiende de todas formas a indicar que, al menos, en la escala temporal de décadas o siglos a) se reduce por b) y c) ; es decir, los mayores riesgos proceden de nosotros mismos, no de desastres naturales. Todo esto constituye el tema del capítulo 8. Antes de eso, en el capítulo 7, ofrecerá una valoración crítica de un argumento abstracto muy debatido, conocido como el Argumento del Juicio Final, que pretende demostrar que el fin de la humanidad está cerca, con toda probabilidad. Considero que este argumento es principalmente una distracción y el capítulo 7 tiene el propósito de quitárnoslo de encima antes de tratar asuntos más serios sobre los peligros existenciales.

Capítulo 9. La Paradoja de Fermi consiste en la pregunta de por qué hasta ahora no hemos visto ningún indicio de civilizaciones extraterrestres. Hay muchas respuestas candidatas a ese problema aún no resuelto que parece estar relacionado mediante una relación matemática muy sencilla, conocida como el Gran Filtro, con el problema de si la humanidad podrá o no colonizar las estrellas. El autor presenta algunas ideas radicales que muestran que podría ser factible.

Capítulo 10. En el capítulo final, los diversos temas de los capítulos anteriores se fusionan y se ponen en relación con la ética. Ninguna ciencia ni análisis de las consecuencias futuras de diversas acciones tomadas actualmente pueden, por sí mismas, decirnos qué hacer. Además, el autor dice que hay que tener en cuenta qué tipo de futuro valoramos y hasta qué punto nos importa el futuro en comparación con los problemas más inmediatos de aquí y ahora. En este último aspecto suele presentarse en economía mediante la llamada "tasa de descuento" que ha desempeñado un importante papel en las discusiones sobre el cambio climático en una escala temporal de décadas o siglos pero difícilmente en el contexto de períodos más largos o con las diversas tecnologías radicales expuestas en los capítulos 3, 4, 5, 8 y 9, Según el autor, nos sentimos menos inclinados a pensar en problemas éticos durante extensos períodos de tiempo por lo que nuestras intuiciones tienden a fallarnos y a conducir a paradojas. Opina que estos problemas deben resolverse porque evitarlos sería inaceptable e irresponsable".

Hasta aquí el resumen escrito por el propio autor en las páginas 12 a 14.

.....

El autor analiza distintos riesgos que amenazan a la humanidad y que recuerdan las tesis del sociólogo Ulrich Beck ("La sociedad del riesgo") , al que lamentablemente no se le menciona pese a lo que podría haber aportado al debate.

Entre las amenazas más peligrosas figuran una guerra nuclear que deje el planeta inhabitable durante millones de años, la liberación de un germen o virus "resucitado" en un laboratorio, una "plaga gris" (el descontrol de un nano-robot auto-replicante ), o el control del mundo por una Inteligencia Artificial maligna, una máquina que "ni ama ni odia al hombre pero este está compuesto de unos átomos que los podría usar para alguna otra cosa" o la invasión de una colonia extraterrestre hostil.

El autor señala que no aún no se han encontrado señales de inteligencia extrerrestre pero cree que habría que ser cautos. La búsqueda SETI le parece sensata aunque algo inútil porque se pregunta por qué razón una civilización extraterrestre superavanzada iba a molestar en enviar mensajes a un humilde planeta como la Tierra. Pero lo que considera una locura es el programa METI, que lanza señales ultrafuertes que delatan la posición de la Tierra y la ponen al descubierto, algo que de todos modos ya hace a causa de las emisiones accidentales de radio y radar. Sería como gritar al espacio y llamar la atención de civilizaciones más poderosas.
Una estrategia más efectiva parece ser buscar esferas de Dycson en el cosmos. Se trata de civilizaciones que necesitan captar toda la energía posible de su estrella para enviar sondar fuera de la galaxia. Para ello, usan máquinas de von Neuman (autorreplicantes) que convierten una planeta como mercurio en material de construcción para una esfera de placas solares que absorben toda la energía del sol. La idea es que desde la Tierra no se vería ese Sol pero sí un calentamiento en infrarrojos que es el efecto de encerrar una estrella dentro de una esfera de Dycson.

Respecto a la máquina de Inteligencia Artificial, el autor recomienda programar desde ya a las máquinas para que sean amistosas con los humanos, antes de que sea tarde. Menciona a los diversos autores que han estudiado la problemática y concluye como ellos que una máquina incontrolable es un riesgo bastante pausible y que la gente, a dia de hoy, se toma a risa cuando los programadores ya deberían estar introduciendo instrucciones en el programa para evitar un desastre si ya no es tarde. Aunque la máquina no fuese maligna, su ausencia de moral le haría ver al hombre como "material" para usar en alguna cosa.

En cuanto a la guerra nuclear, el autor evalúa tres escenarios: que haya paz, que elimine al 99 % de la población o que la extinga con el 100 %. Habrá gente que crea que la segunda opción es igual que la tercera pero supondría que en la Tierra devastada quedarían 70 millones de personas (aunque el autor habla de 300). El ejemplo sirve para explicar las engañosas intuiciones que tienen los humanos  al hacer deducciones y valoraciones respecto a los números grandes,

Otra cuestión que plantea es la de enviar colonias al espacio. La pregunta que se hace es si llevamos en las naves a los animales también. Cree que, como dicen algunos autores, eso no haría más que aumentar el terrible sufrimiento que los animales ya tienen en la vida salvaje (sometidos a una brutal lucha por sobrevivir). Llevarlos al espacio no haría más que prolongar su sufrimiento, dice.

[nota del lector: la conquista del espacio va a ser más difícil de lo que se pensaba inicialmente a causa de las limitaciones físicas del ser humano. Parece evidente que, con la actual configuración física, los habitantes de las colonias espaciales tendrían que estar confinados en una nave rotatoria que vagase por el espacio mientras la extracción de recursos o las misiones en otros planetas habrían de llevarse a cabo por robots y sondas. Al menos hasta que apareciese una segunda Tierra o se reforme la constitución humana para adaptarse a un abanico de gravedades].  

En los capítulos 7 y 8 discute sobre cómo calcular el tiempo de vida que le queda a la Humanidad antes de que sobrevenga un apocalipsis ya sea por un holocausto nuclear o un asteroide de 15 kilómetros de longitud. Hay varios métodos estadísticos para calcularlo pero bastante chapuceros. En uno de ellos estima que usted, el lector, forma parte del 0,5 % de toda la Humanidad que ha existido y va a existir. Según estos cálculos, no exentos de fallos teóricos, la Humanidad se extinguirá dentro de 11.500 años. Otros estudios introducen en la ecuación la probabilidad de un evento catastrófico como un asteroide gigante (una vez cada cien millones de años) que cause una extinción masiva. También se evalúa la posibilidad de que un holocausto nuclear devaste el mundo tal como lo conocemos.

Respecto a la Ciencia estudia las proposiones falsacionistas de Popper y las estadísticas Bayesianas y revela donde están los errores de la argumentación.

Según Popper, en el conocimiento humano hay muchos sesgos. El primero en caer en ellos fue Bacon que rechazó la teoría en favor de la observación y negó la teoría copernicana porque sus propios ojos veían cómo el sol giraba todos los días. De estos sesgos, Popper destaca los ídolos de la tribu (ver más orden en la naturaleza del que hay, confundir patrones con ruido), los ídolos de la caverna (prejuicios del entorno), ídolos de la plaza pública (lenguaje influye en pensamiento) e ídolos del teatro (ilusiones filosóficas). Es lo que Kahneman (2011) llama "sesgos"

Del mismo modo, estudia otras propuestas que defienden que las máquinas son conscientes. Por ejemplo, se dice que una máquina podría saber de verdad chino y entenderlo. Pero contra esto  propone el experimento mental de la habitación china: un reconocido investigador americano que no entiende chino entra en una habitación y le dan unas instrucciones en inglés (el programa informático) y una página en blanco que simula ser la memoria informática. Por una ventana, le pasan al investigar unos rollos escritos en chino y por otro él devuelve la respuesta siguiendo las instrucciones en inglés. ¿Significa eso que ya entiende chino? El autor señala que es la propia habitación, el sistema completo, el que entiende chino y que el investigador es una mera pieza del engranaje.

Todos estos ejemplos y estudios que cita Häggström quieren poner en evidencia las lagunas que existen ahora mismo en torno a la teoría del razonamiento humano, lo que genera bastante preocupación de cara a programar una máquina superinteligente que siga un razonamiento humano que de por sí es bastante defectuoso (por sesgos) y que puede acabar con freírnos a todos.

El ejemplo más cercano es la plaga gris (invasión de nano-robots autoreplicantes). La estudiaron Drexler y Kurzweil, entre otros. Una idea para controlar la autoreplicación es construirlas con elementos de materia prima no disponibles en el entorno. Otra idea sería que la máquina no tuviese capacidad para obtener elementos de moléculas sino que necesitase una sustancia química simple (como el acetileno). Otra solución es crear nano-robots encargados de combatir una plaga gris (a modo de sistema autoinmunitario).
Por otra parte, la fabricación de armas en 3D podría disparar la carrera armamentística, por lo que es un elemento desestabilizador enorme y el resto de los países podrían estar tentados a realizar un golpe preventivo.

El autor también analiza el concepto de Singularidad, propuesto por Eliezer Yudkowsky cuando era adolescente: cuando una máquina de IA supere al hombre podrá hacer máquinas más intelegentes. Aplicando la ley de Moore; bastarían cuatro años para llegar a la Singularidad (explosión de inteligencia en la que la velocidad de computación alcanza el infinito en tiempo finito). El problema es que en esos cuatro años, el progreso humano también avanza y, por otra parte, la máquina no tiene por qué tener la necesidad de desarrollar nuevo hardware cuando puede piratear todo el existente y que está mal protegido. El autor cree que sería más acertado hablar de incremento exponencial de la IA. En todo caso, le llama la atención toda esa gente que hay intentando que una máquina pase el test de Turing (sería un interlocutor mecánico al otro lado de la habitación indistinguible de un ser humano). Y otro problema es definir qué es exactamente inteligencia, desde luego no es tener 140 CI en los test.

En cuanto a la posibilidad de que los robots se queden nuestro trabajo ya hay estudios sobre qué ocupaciones serán automatizadas. El autor sospecha que Keynes no iba desencaminado cuando habló de los "crecientes niveles de desempleo tecnológicos". Por otra parte, el autor dice que liberarnos de la dureza del trabajo no es malo sobre todo si dedicamos ese tiempo al arte, el deporte o el amor. Pero parece utópico y se prevé que la transición genere consecuencias sociales, pues genera desigualdad entre los propietarios de las máquinas que generan beneficios.

Por otro lado, la ingeniería para crear seres humanos mejorados también genera preguntas. Por un lado, se plantea que si se realizan simulaciones de cerebros animales o humanos, estos también podrían sufrir. Se cree que la simulación solo afectaría a un puñado de neuronas sin capacidad de sufrir. Otro problema es si la transferencia de datos de una mente a un ordenador conllevaría la destrucción del cerebro original, lo que a lo mejor tampoco es muy buena idea. Y los primeros que prueben prácticamente se estarían suicidando ante las elevadas posibilidades de fracaso. Y peor aún, las mentes encerradas en un software ni siquiera serán propietarias del hardware que las contiene ni tendrán derechos civiles.

El hecho de alargar la vida también genera problemas porque si la gente vive 200 años habría que limitar los nacimientos a la mitad que ahora (que se viven cien), si esto se contempla desde un punto de vista malthusiano por falta de alimentos para toda la población de 10.000 millones de personas.

Finalmente, el autor se hace estas preguntas:

-¿Cómo de importante es nuestro bienestar en comparación con el de las generaciones futuras?

- ¿el nivel medio de bienestar o el nivel total (teniendo en cuenta a todos los humanos)?

- ¿Tiene la biosfera de nuestro planeta y sus ecosistemas un valor intrínseco o son sólo valiosos en el sentido de que contribuyen al bienestar de los seres humanos?

- ¿Es la experiencia de la realidad física la única existencia que importa de verdad o sucedería lo mismo si tuviéramos las mismas experiencias en una realidad virtual?

- ¿Deberíamos seguir adelante y mejorar las capacidades humanas cognitivas y de otro tipo, sin límites o hay algún factor X de Fukuyama que sea crucial para el valor de los humanos y la humanidad, y que nos arriesguemos a perder en ese proceso?

- Comparando un futuro en el que los seres humanos prosperen con otro en que seamos sustituidos por robots que prosperen de igual modo ¿es el primero automáticamente preferible al segundo?


Las conclusiones del autor es que a día de hoy faltan muchos conocimientos pero el llamamiento a "necesitamos saber más" no debe tomarse como una excusa para la procrastinación. "Nuestro conocimiento actual es limitado, imperfecto e inseguro pero seguramente siempre será así. No tomar decisiones es ya una decisión que puede tener consecuencias". Añade que "podríamos estar en un punto de inflexión que nos lleve a una rápida extinción o a un futuro de forma que prosperemos por encima de nuestros mejores sueños, tal ve a escala cósmica". (Häggström, 2016:260)

No hay comentarios:

Publicar un comentario