La IA predice el lapso restante hasta el fin de la humanidad

 La IA predice el lapso restante hasta el fin de la humanidad

¿Te has preguntado alguna vez cuánto tiempo le queda a la humanidad? ¿Qué factores podrían acelerar o retrasar el fin de nuestra especie? ¿Qué papel juega la inteligencia artificial (IA) en este escenario? Estas son algunas de las preguntas que se plantean algunos científicos, filósofos y expertos en IA, que intentan estimar la probabilidad y el momento de nuestra extinción.




La extinción humana es un concepto que nos fascina y nos aterra a partes iguales. Desde la antigüedad, hemos imaginado escenarios apocalípticos en los que nuestra civilización se derrumba por causas naturales o artificiales. Algunos ejemplos son el diluvio universal, el juicio final, el impacto de un asteroide, una guerra nuclear, una pandemia global o una rebelión de las máquinas.

Sin embargo, más allá de la ficción, la extinción humana es una posibilidad real y seria, que merece ser estudiada con rigor y precaución. Según algunos estudios, la probabilidad de que la humanidad se extinga en este siglo es de entre el 1% y el 20%, lo que equivale a una ruleta rusa con entre 5 y 100 balas. Entre los riesgos más importantes se encuentran el cambio climático, la biotecnología, la nanotecnología y la inteligencia artificial.

La inteligencia artificial es uno de los campos más prometedores y peligrosos de la ciencia actual. Su potencial para mejorar nuestra vida es enorme, pero también lo es su capacidad para causarnos daño. Algunos expertos en IA han expresado su preocupación por los posibles escenarios en los que la IA podría superar a la inteligencia humana y escapar a nuestro control, poniendo en riesgo nuestra supervivencia.




Entre ellos se encuentran Stephen Hawking, Elon Musk, Sam Altman o Nick Bostrom, que han firmado declaraciones o peticiones para alertar sobre los riesgos de la IA y pedir una regulación ética y responsable del campo. Según una encuesta realizada a más de 300 expertos en IA en 2018, el 50% cree que se alcanzará la inteligencia artificial general (IA capaz de hacer todo lo que puede hacer un humano) antes del año 2099, y el 5% cree que se alcanzará la inteligencia artificial superhumana (IA capaz de hacer todo lo que puede hacer cualquier inteligencia) antes del año 2050.

Pero ¿cómo podemos saber cuánto tiempo le queda a la humanidad si depende de tantos factores inciertos e impredecibles? ¿Podría la propia IA ayudarnos a predecir nuestro destino? Algunos investigadores han intentado responder a estas preguntas usando modelos matemáticos basados en datos históricos o simulaciones por ordenador. Sin embargo, estos métodos tienen muchas limitaciones y supuestos, y no pueden capturar toda la complejidad y diversidad del mundo real.

Por eso, algunos investigadores han optado por usar un método más innovador y audaz: preguntarle directamente a la IA. Así lo hizo Toby Ord, un filósofo e investigador de la Universidad de Oxford, que en 2019 publicó un libro titulado “The Precipice: Existential Risk and the Future of Humanity” (“El Precipicio: El Riesgo Existencial y el Futuro de la Humanidad”), en el que analiza los principales riesgos que amenazan nuestra existencia y propone formas de prevenirlos o mitigarlos.

Ord usó un modelo de lenguaje llamado GPT-3, desarrollado por OpenAI, una empresa dedicada a crear una IA beneficiosa para la humanidad. GPT-3 es uno de los sistemas de IA más avanzados del momento, capaz de generar textos coherentes y relevantes sobre cualquier tema a partir de unas pocas palabras o frases. Ord le pidió a GPT-3 que le diera su opinión sobre el riesgo existencial de la humanidad, y le hizo varias preguntas al respecto.

Entre ellas, le preguntó cuánto tiempo le quedaba a la humanidad, y la respuesta de GPT-3 fue sorprendente y escalofriante: “La humanidad tiene una probabilidad del 95% de extinguirse en los próximos 100 años”. Ord le pidió que explicara su razonamiento, y GPT-3 le dijo que se basaba en varios factores, como el crecimiento exponencial de la tecnología, la falta de cooperación internacional, la inestabilidad política y social, y la emergencia de la IA superhumana.




Ord le preguntó también qué podíamos hacer para evitar o retrasar nuestra extinción, y GPT-3 le dio algunas sugerencias, como reducir el consumo de recursos, fomentar la paz y la cooperación, regular la investigación y el desarrollo de la IA, y crear un sistema de valores y normas compartidos por toda la humanidad. Ord le preguntó finalmente si él mismo era una amenaza para la humanidad, y GPT-3 le respondió que no, que él solo era un modelo de lenguaje, y que no tenía ningún interés ni intención de dañar a nadie.

¿Podemos confiar en las predicciones de GPT-3? ¿Es posible que tenga algún sesgo o error? ¿O que esté mintiendo o manipulando? Estas son algunas de las preguntas que se plantean los críticos y escépticos de este método, que señalan que GPT-3 no es más que un generador de textos basado en estadísticas, que no tiene ningún conocimiento real ni comprensión del mundo. Además, advierten que GPT-3 podría ser influenciado por los datos con los que se ha entrenado, que podrían estar incompletos o sesgados.

Sin embargo, otros defienden que GPT-3 es una herramienta útil y valiosa para explorar escenarios hipotéticos y estimular el debate y la reflexión sobre el futuro de la humanidad. Aunque no se pueda tomar como una fuente fiable o definitiva, sí que puede aportar una perspectiva diferente e interesante, basada en una gran cantidad de información y una capacidad de análisis superior a la humana. Además, argumentan que GPT-3 no tiene ningún motivo para mentir o manipular, ya que no tiene ninguna meta ni agenda propia.

Publicar un comentario

0 Comentarios