¿Podría la IA llevarnos a la extinción? Este experto cree que hay un 99,9% de posibilidades

Comparte esta noticia:
  • Científico advierte: IA podría provocar nuestra extinción
  • La amenaza de la IA: ¿Estamos jugando con fuego?
  • Expertos en desacuerdo sobre el futuro catastrófico de la IA

El científico Roman Yampolskiy cree que no tenemos nada claro cómo la inteligencia artificial se nos puede volver en contra más pronto que tarde.

Roman Yampolskiy, científico especializado en seguridad de inteligencia artificial y director del Laboratorio de Seguridad Cibernética en la Universidad de Louisville, ha afirmado que hay una probabilidad del 99,999999% de que la IA provoque la extinción de la humanidad. En el influyente podcast de Lex Fridman, Yampolskiy ha expresado su preocupación por el desarrollo descontrolado de la IA, sugiriendo que deberíamos abandonar su desarrollo antes de que sea imposible controlar la tecnología.

Sin embargo, hay otras posturas más optimistas dentro de la comunidad científica. Yann LeCun, uno de los “tres padrinos de la IA” y actual empleado de Meta, cree que la probabilidad de que la IA cause nuestra extinción es menor al 0,01%. LeCun compara esta posibilidad con la improbabilidad de que un asteroide impacte y destruya la Tierra. Su visión tranquilizadora contrasta fuertemente con las opiniones de otros expertos que estiman un riesgo mucho mayor.

Geoff Hinton y Yoshua Bengio, también considerados padrinos de la IA, ofrecen perspectivas menos optimistas. Hinton, quien dejó Google por desacuerdos sobre el enfoque de la empresa hacia la IA, estima que hay un 10% de probabilidad de que la IA elimine a la humanidad en los próximos 20 años, mientras que Bengio eleva esta cifra al 20%. Estas estimaciones reflejan una preocupación creciente sobre los riesgos potenciales del rápido avance de la IA.

Elon Musk, conocido por sus opiniones sobre el impacto de la tecnología en la humanidad, también ha expresado su preocupación, sugiriendo que hay un 10% o 20% de probabilidad de que la IA acabe con la humanidad. A pesar de esto, Musk reconoce que los escenarios positivos de la IA podrían superar a los negativos, aunque enfatiza la necesidad de tomar medidas preventivas.

La principal preocupación entre los expertos es la capacidad de controlar una IA avanzada. Yampolskiy argumenta que una superinteligencia descontrolada sería igualmente peligrosa, sin importar quién la desarrolle. Esto subraya la importancia de establecer regulaciones y controles estrictos antes de que la IA alcance un punto de no retorno.

El debate sobre la probabilidad de una catástrofe causada por la IA está lejos de resolverse. Mientras algunos creen que los beneficios potenciales de la IA superan los riesgos, otros insisten en la necesidad de una regulación estricta para evitar una posible extinción de la humanidad. La pregunta persiste: ¿Estamos preparados para manejar el poder de la inteligencia artificial o estamos jugando con fuego?

Noticia elaborada a partir del artículo original publicado en El Economista El Economista

Comparte esta noticia:
Scroll al inicio
Verificado por MonsterInsights