Roman Yampolskiy dice que la probabilidad de que la IA acabe con la humanidad es del 99,9%: por qué lleva la contraria al resto de investigadores

Comparte esta noticia:
Roman Yampolskiy dice que la probabilidad de que la IA acabe con la humanidad es del 99,9%: por qué lleva la contraria al resto de investigadores

Roman Yampolskiy, investigador en IA, estima que la probabilidad de que esta tecnología provoque la extinción humana es del 99,9%. Mientras que otros expertos calculan riesgos menores, Yampolskiy argumenta que ningún modelo de IA ha sido completamente seguro y que los futuros modelos probablemente tampoco lo serán.

Roman Yampolskiy, investigador especializado en inteligencia artificial, ha calculado que la probabilidad de que esta tecnología conduzca a la extinción humana ronda el 99,9%. Según Yampolskiy, hasta ahora ningún modelo de IA ha sido seguro y es poco probable que los futuros modelos estén libres de errores. Otros investigadores han sido más moderados en sus estimaciones.

El presentador de podcast Lex Fridman ha asegurado recientemente en un episodio de su programa que la mayoría de ingenieros de inteligencia artificial con los que habla calculan que existen entre un 1% y un 20% de posibilidades de que la IA general (AGI) acabe exterminando a los seres humanos. La predicción varía en función de cómo y a quién se le pregunte. Por ejemplo, un estudio reciente realizado con 2.700 investigadores especializados en inteligencia artificial concluía que solo existen un 5% de probabilidades de que la IA conduzca a la extinción de la especie humana.

Sin embargo, Fridman defiende que también es importante hablar con las personas que estiman que la probabilidad de que la inteligencia artificial acabe con la humanidad es mucho mayor. Ese sería el caso del investigador Roman Yampolskiy, que declaraba al periodista en una entrevista publicada este domingo que la probabilidad en los próximos 100 años es del 99,9%.

Yampolskiy da clases de Informática en la Universidad de Louisville, en Estados Unidos, y ha publicado un libro este año titulado AI: Unexplainable, Unpredictable, Uncontrollable (“IA: inexplicable, impredecible, incontrolable”). En su entrevista con Fridman, este investigador ha hablado durante más de dos horas de los riesgos que plantea la inteligencia artificial y sus previsiones han sido bastante poco halagüeñas.

Yampolskiy ha adelantado que las posibilidades de que la IA acabe con el ser humano dependen de si las personas pueden desarrollar software de alta complejidad sin fallos en los próximos 100 años. Ha señalado que eso es poco probable, ya que ningún modelo de inteligencia artificial ha estado completamente a salvo de los intentos de hacer que la tecnología haga algo para lo que no fue diseñada. “Ya han cometido errores”, ha afirmado el investigador. “Hemos tenido accidentes, les han hecho jailbreak. No creo que exista hoy en día un solo gran modelo lingüístico al que nadie haya conseguido hacer algo que los desarrolladores no pretendían que hiciese”.

Las primeras versiones de los modelos de IA en los últimos dos años han levantado sospechas por su potencial para hacer el mal o para difundir desinformación. Los deepfakes han sido utilizados para crear contenido pornográfico de personas famosas como Taylor Swift o han amenazado con influir en las elecciones estadounidenses con llamadas de ciberdelincuentes que decían ser el presidente Joe Biden.

Yampolskiy ha expresado que, para controlar a la inteligencia artificial, se necesita una máquina de seguridad perpetua. El investigador ha indicado que, incluso si se hace un buen trabajo con las próximas versiones de GPT, la IA va a seguir mejorando, aprendiendo, modificándose e interactuando con diferentes agentes… Y, con los riesgos existenciales, “solo tienes una oportunidad”.

El CEO de OpenAI (la desarrolladora de ChatGPT), Sam Altman, ha propuesto la creación de un “sandbox regulatorio”, una iniciativa que ya se había estudiado por parte del Gobierno de España en la que la gente experimente con la inteligencia artificial y la regule basándose en lo que “salió realmente mal” y lo que ha salido “realmente bien”. Altman advirtió una vez —quizá estaba bromeando— en el 2015 que “lo más probable es que la IA conduzca al fin del mundo, pero mientras tanto, habrá grandes empresas”.

Noticia elaborada a partir del artículo original publicado en Business Insider

Comparte esta noticia:
Scroll al inicio