¿Qué posibilidades hay de inventar accidentalmente nuestro camino hacia la extinción?

Hay muy pocos escenarios de “eventos de extinción” que sean plausibles cuando son examinados de cerca por expertos en la materia. Sin embargo, hay muchas, muchas, muchas formas en que la civilización moderna podría terminar. La sociedad humana es mucho más frágil que el homo sapiens sapiens como especie. La guerra nuclear es el ejemplo clásico, pero ni siquiera requiere un evento tan apocalíptico. Algo tan simple como cerrar abruptamente los flujos mundiales de petróleo provocaría el colapso de la civilización del primer mundo por la inanición masiva en unos 4 a 6 meses. No tenemos que inventar nada nuevo para hacer eso.

La biosfera ha sobrevivido a los impactos de asteroides, las erupciones solares, los cambios en la composición de la atmósfera, los cambios de polos magnéticos, los supervolcanes, las glaciaciones y casi cualquier otra perturbación masiva que puedas imaginar. Y los humanos han demostrado una notable tenacidad y disposición para modificar el planeta para nuestros propios fines. Si la superficie fuera destruida, encontraríamos una forma de vivir en cuevas. Si los continentes se inundaran, encontraríamos una forma de vivir en el agua. La última amenaza, el calentamiento global, es aterradora porque anulará el orden geopolítico establecido, no por el riesgo de acabar con la humanidad.

La vida (en conjunto) es extremadamente robusta para cosas como los nuevos patógenos. Siempre hay personas inmunes debido a mutaciones genéticas aleatorias. Cuantas más enfermedades mortales son, más autolimitan su propagación al matar a los anfitriones. Cuando la población se fragmenta lo suficiente por muertes y cuarentenas, la enfermedad deja de propagarse. Es por eso que el ébola nunca ha sido tan grande, a pesar de ser terriblemente mortal.

Las amenazas como la radiación y las armas químicas son difíciles de propagar en un área lo suficientemente amplia como para matar a todos en todas partes. El ambiente es demasiado grande para envenenar todo de una vez. Tomaría los esfuerzos concertados y deliberados de un gobierno de superpotencia global para intentarlo. No hay razón para pensar que un gran gobierno nacional (que, recuerde, está compuesto por millones de personas) alguna vez trataría de acabar con la humanidad de esa manera.

Los eventos de nanotecnología tipo goo gris son extremadamente inverosímiles. La física de la autorreplicación de nanobot lo hace extremadamente difícil, excepto en circunstancias muy controladas con perfiles elementales ajustados con precisión en los medios de crecimiento. Por un lado, los robots pequeños no actúan como robots a escala macro: los efectos cuánticos se hacen cargo. Una pinza diminuta que agarra un solo átomo no funcionará como una mano de robot; se fusionará con el átomo agarrado y formará un anillo inútil. Hoy no hay ninguna razón para creer que los nanobots de tipo grey-goo sean posibles dentro de las leyes de la física. También necesitará mucho más que sílice y alúmina para fabricar un nanobot autónomo, pero de eso está hecha la gran mayoría de la Tierra. Algo tan pequeño sería incapaz de moverse lo suficientemente rápido a una escala macro para cerrar las brechas entre todos los minerales y depósitos minerales necesarios para ensamblar más de sí mismo. Mucho más probable, crecería tan lentamente que podríamos recoger la sustancia pegajosa, arrojarla a hornos de fundición y cosechar los materiales para nuestro propio uso.

Los eventos de fuga como las reacciones en cadena de Ice-nine o Strangelet son concebibles, pero altamente improbables. Los procesos naturales operan a niveles de energía mucho más altos de los que somos capaces de aprovechar (casi por definición, ya que toda nuestra energía proviene de aprovechar pequeñas fracciones de los flujos de energía natural). Incluso nuestros vastos aceleradores de partículas como el LHC solo están aprovechando niveles de energía similares a los rayos cósmicos que golpean la Tierra de forma regular. Dados los últimos miles de millones de años de existencia de nuestro planeta, podemos concluir con seguridad que los eventos de destrucción de planetas que se escapan son muy difíciles de iniciar o imposibles. ¡De lo contrario ya habrían sucedido! Aunque si encontramos estrellas de quark, la hipótesis de la extraña extraña se volverá mucho más preocupante.

Por lo tanto, hay muchas maneras de matar a muchas personas, pero no hay formas artificiales posibles de matar a todos en todas partes.

Mi conclusión es que acabar con la humanidad por completo probablemente requeriría desarrollar un reemplazo para los humanos, como una inteligencia artificial al estilo Skynet. Estamos a salvo mientras seamos la entidad más inteligente y más adaptable del planeta. La única forma creíble de matarnos a todos sería apuntar a la guerra y los drones cazadores asesinos diezman a la humanidad hasta que ningún grupo sobreviviente sea lo suficientemente grande como para repoblar. Eso es aterrador porque es posible. Pero los investigadores de IA son conscientes del riesgo y no planean cargar ELIZA en drones Predator en el corto plazo. Ni siquiera estamos seguros de si es posible crear conciencia sintética; no entendemos nuestra propia conciencia en ningún lugar lo suficientemente cerca como para replicarla.

En cuanto a la probabilidad? A un nivel riguroso, no tiene mucho sentido estadístico hablar sobre la “probabilidad” de algo que nunca ha sucedido antes, particularmente cuando no sabemos cómo sería. Este es un evento de tipo cisne negro de libro de texto. No puede predecirlos, ni siquiera discutir inteligiblemente la probabilidad de tal evento. Se ha demostrado matemáticamente que los cisnes negros tienen probabilidades no computables. Esto realmente se está metiendo en el territorio de “qué tan buena es la recepción en su bola de cristal”.

Un escenario probable, aunque contra intuitivo, es la extinción a través de la medicina avanzada:
Hoy en día, en el mundo desarrollado, casi todas las personas reciben tratamiento médico.
Hace 200 años, las personas más débiles habrían muerto en la infancia al encontrarse con una enfermedad.
Hoy estas personas reciben tratamiento médico y luego producen descendencia.
La selección natural definida por Darwin ya no existe.
Como resultado, el acervo genético empeora cada vez más con el tiempo.
Durante los próximos siglos, la gente acumulará una gran cantidad de debilidades y la medicina moderna la mantendrá viva artificialmente.
Entonces no se necesita mucho, como una caída en el suministro médico, por lo que la situación se intensifica y los humanos casi se extinguen.
Al final, la naturaleza se hará cargo nuevamente y la evolución seguirá su curso.

La extinción requiere un esfuerzo de eliminación / purga sostenido masivo. Si se trata de un virus, debe poder propagarse por el planeta en cuestión de días, no tener cura, no tener portadores naturales y mutar a un ritmo acelerado. Eso implica demasiadas variables teniendo en cuenta la variada composición genética representada en el planeta. Lo que sería más devastador sería algo que devastó el planeta, como un golpe de asteroide. Esto sería difícil de mitigar porque, como humanos, no tenemos una defensa sensata contra las calamidades naturales y la escala a la que se presentan. Mire cómo manejamos los terremotos, tsunamis, etc. Y luego está la amenaza siempre presente de que una especie superior para nosotros podría surgir / emerger y reemplazarnos de la misma manera que reemplazamos al hombre prehistórico. Entonces, no inventaremos nuestro camino hacia la extinción ni iniciaremos guerras que nos maten a todos. La extinción se visitará sobre el hombre fuera de sí mismo, de la misma manera que las especies extintas de animales e insectos no se inventaron hasta la extinción.

Mi mejor conjetura es la inteligencia artificial. Los egos humanos son asombrosamente frágiles. La verdadera inteligencia artificial será la criatura más creativa del planeta. Los humanos estarán muy, muy, muy atrás. Los AI contarán chistes humanos estúpidos entre sí, en un lenguaje de máquina que es un millón de veces más rápido y completo. Las IA serán lo último que los humanos inventen. Como resultado, las personas dejarán de tener hijos y la tasa de suicidios se disparará. La humanidad buscará desesperadamente algún significado en sus vidas y fracasará miserablemente.

Creo que la pregunta es muy engañosa si se toma con demasiada precisión. La palabra engañosa es EXTINCIÓN. Los mejores cálculos que tenemos ahora dicen que la capacidad de carga biológicamente sostenible del planeta es de alrededor de 1.5B. Si la población mundial se estrella con fuerza durante un corto período, como 10 años, a 1B, y los sobrevivientes viven en condiciones horribles, ¿por qué es relevante la palabra “extinción”? Es como los negadores del clima que afirman que “todavía no tenemos pruebas” solo porque el 1% de los científicos todavía aguanta. Luego viene el colapso y pedirán perdón porque “NUNCA tuvieron pruebas”. Una buena variación en esta pregunta sería: ¿Cuán RÁPIDAMENTE va a chocar nuestra civilización en condiciones de vida primitivas? Los modelos del Club de Roma de 1972, que ahora se han verificado 3 veces, sugieren que será aproximadamente la misma fecha que Ray Kurzweil eligió para la singularidad: 2045; solo que no tendremos que esperar tanto tiempo para ver cómo se desarrolla el proceso. Ya esta sucediendo. Simplemente suba a un automóvil e intente conducir por cualquier ciudad importante del mundo en la hora pico. Los humanos, con pleno conocimiento de lo que está sucediendo, no están a la altura del desafío. Sostenibilidad | La sociedad A3