Hay muy pocos escenarios de “eventos de extinción” que sean plausibles cuando son examinados de cerca por expertos en la materia. Sin embargo, hay muchas, muchas, muchas formas en que la civilización moderna podría terminar. La sociedad humana es mucho más frágil que el homo sapiens sapiens como especie. La guerra nuclear es el ejemplo clásico, pero ni siquiera requiere un evento tan apocalíptico. Algo tan simple como cerrar abruptamente los flujos mundiales de petróleo provocaría el colapso de la civilización del primer mundo por la inanición masiva en unos 4 a 6 meses. No tenemos que inventar nada nuevo para hacer eso.
La biosfera ha sobrevivido a los impactos de asteroides, las erupciones solares, los cambios en la composición de la atmósfera, los cambios de polos magnéticos, los supervolcanes, las glaciaciones y casi cualquier otra perturbación masiva que puedas imaginar. Y los humanos han demostrado una notable tenacidad y disposición para modificar el planeta para nuestros propios fines. Si la superficie fuera destruida, encontraríamos una forma de vivir en cuevas. Si los continentes se inundaran, encontraríamos una forma de vivir en el agua. La última amenaza, el calentamiento global, es aterradora porque anulará el orden geopolítico establecido, no por el riesgo de acabar con la humanidad.
La vida (en conjunto) es extremadamente robusta para cosas como los nuevos patógenos. Siempre hay personas inmunes debido a mutaciones genéticas aleatorias. Cuantas más enfermedades mortales son, más autolimitan su propagación al matar a los anfitriones. Cuando la población se fragmenta lo suficiente por muertes y cuarentenas, la enfermedad deja de propagarse. Es por eso que el ébola nunca ha sido tan grande, a pesar de ser terriblemente mortal.
- ¿Qué es un cine de lujo?
- ¿Cómo utilizan las empresas las redes sociales para la innovación?
- ¿Cuáles son los mejores productos innovadores para las empresas?
- ¿Por qué los científicos no pueden inventar una 'máquina de inventar'?
- Para usted, ¿cuál es la forma más innovadora de reutilizar un paquete?
Las amenazas como la radiación y las armas químicas son difíciles de propagar en un área lo suficientemente amplia como para matar a todos en todas partes. El ambiente es demasiado grande para envenenar todo de una vez. Tomaría los esfuerzos concertados y deliberados de un gobierno de superpotencia global para intentarlo. No hay razón para pensar que un gran gobierno nacional (que, recuerde, está compuesto por millones de personas) alguna vez trataría de acabar con la humanidad de esa manera.
Los eventos de nanotecnología tipo goo gris son extremadamente inverosímiles. La física de la autorreplicación de nanobot lo hace extremadamente difícil, excepto en circunstancias muy controladas con perfiles elementales ajustados con precisión en los medios de crecimiento. Por un lado, los robots pequeños no actúan como robots a escala macro: los efectos cuánticos se hacen cargo. Una pinza diminuta que agarra un solo átomo no funcionará como una mano de robot; se fusionará con el átomo agarrado y formará un anillo inútil. Hoy no hay ninguna razón para creer que los nanobots de tipo grey-goo sean posibles dentro de las leyes de la física. También necesitará mucho más que sílice y alúmina para fabricar un nanobot autónomo, pero de eso está hecha la gran mayoría de la Tierra. Algo tan pequeño sería incapaz de moverse lo suficientemente rápido a una escala macro para cerrar las brechas entre todos los minerales y depósitos minerales necesarios para ensamblar más de sí mismo. Mucho más probable, crecería tan lentamente que podríamos recoger la sustancia pegajosa, arrojarla a hornos de fundición y cosechar los materiales para nuestro propio uso.
Los eventos de fuga como las reacciones en cadena de Ice-nine o Strangelet son concebibles, pero altamente improbables. Los procesos naturales operan a niveles de energía mucho más altos de los que somos capaces de aprovechar (casi por definición, ya que toda nuestra energía proviene de aprovechar pequeñas fracciones de los flujos de energía natural). Incluso nuestros vastos aceleradores de partículas como el LHC solo están aprovechando niveles de energía similares a los rayos cósmicos que golpean la Tierra de forma regular. Dados los últimos miles de millones de años de existencia de nuestro planeta, podemos concluir con seguridad que los eventos de destrucción de planetas que se escapan son muy difíciles de iniciar o imposibles. ¡De lo contrario ya habrían sucedido! Aunque si encontramos estrellas de quark, la hipótesis de la extraña extraña se volverá mucho más preocupante.
Por lo tanto, hay muchas maneras de matar a muchas personas, pero no hay formas artificiales posibles de matar a todos en todas partes.
Mi conclusión es que acabar con la humanidad por completo probablemente requeriría desarrollar un reemplazo para los humanos, como una inteligencia artificial al estilo Skynet. Estamos a salvo mientras seamos la entidad más inteligente y más adaptable del planeta. La única forma creíble de matarnos a todos sería apuntar a la guerra y los drones cazadores asesinos diezman a la humanidad hasta que ningún grupo sobreviviente sea lo suficientemente grande como para repoblar. Eso es aterrador porque es posible. Pero los investigadores de IA son conscientes del riesgo y no planean cargar ELIZA en drones Predator en el corto plazo. Ni siquiera estamos seguros de si es posible crear conciencia sintética; no entendemos nuestra propia conciencia en ningún lugar lo suficientemente cerca como para replicarla.
En cuanto a la probabilidad? A un nivel riguroso, no tiene mucho sentido estadístico hablar sobre la “probabilidad” de algo que nunca ha sucedido antes, particularmente cuando no sabemos cómo sería. Este es un evento de tipo cisne negro de libro de texto. No puede predecirlos, ni siquiera discutir inteligiblemente la probabilidad de tal evento. Se ha demostrado matemáticamente que los cisnes negros tienen probabilidades no computables. Esto realmente se está metiendo en el territorio de “qué tan buena es la recepción en su bola de cristal”.