25 grandes científicos alertan que la IA puede provocar “la extinción de la humanidad”

Comparte esta noticia:

Veinticinco destacados científicos advierten que el avance sin control de la IA podría llevar a la extinción de la humanidad. Exigen a los gobiernos medidas más estrictas para evitar peligros catastróficos. La IA supera capacidades humanas críticas y, sin seguridad adecuada, podría causar daños significativos, incluido el despliegue autónomo de armas.

El Instituto de Seguridad de la Inteligencia Artificial de Estados Unidos dispone de solo 10 millones de dólares anuales, una cantidad insignificante comparada con los 6.700 millones de la FDA. Este desbalance en la financiación de la seguridad es una de las preocupaciones que han llevado a 25 de los mayores científicos en el campo de la inteligencia artificial a unirse para exigir a los gobiernos que implementen controles más rigurosos. Según un documento firmado por estos expertos y publicado en la revista Science, el avance descontrolado de los sistemas informáticos autónomos puede resultar en la “pérdida de vidas” y, eventualmente, en la “extinción de la humanidad”.

Este grupo de científicos, que incluye varios premios Nobel y el informático más citado en estudios sobre IA, argumenta que no se están tomando las medidas necesarias para protegernos de los riesgos asociados con esta tecnología. Entre los firmantes destacan figuras como Geoffrey Hinton, Andrew Yao y Dawn Song, que trabajan en potencias como Estados Unidos, la Unión Europea y China. La urgencia de actuar es resaltada por el profesor Philip Torr de la Universidad de Oxford, quien enfatiza la necesidad de pasar de propuestas vagas a compromisos concretos.

En la actualidad, solo el 2% de los estudios sobre IA se enfocan en la seguridad, y la comunidad internacional carece de instituciones dedicadas a prevenir el uso indebido de estos sistemas. Los expertos advierten que ya es posible crear sistemas de IA altamente poderosos que superan las capacidades humanas en dominios críticos, lo que podría llevar a consecuencias desastrosas en áreas como la piratería informática, la manipulación social y la planificación estratégica.

Para mitigar estos riesgos, los científicos recomiendan la creación de instituciones especializadas en la supervisión rápida de la IA, con una financiación adecuada. También sugieren que las empresas de IA den prioridad a la seguridad, demostrando que sus sistemas no pueden causar daños. Los gobiernos deben liderar en la regulación, implementando controles de acceso y medidas de seguridad contra hackers.

La rápida evolución de la IA presenta desafíos sin precedentes, incluyendo el despliegue autónomo de armas biológicas en conflictos. Según estos expertos, existe una posibilidad muy real de que un avance desenfrenado en la IA resulte en una pérdida masiva de vidas y daños a la biosfera, llevando potencialmente a la extinción de la humanidad.

Noticia elaborada a partir del artículo original publicado en Cadena SER

Comparte esta noticia:
Scroll al inicio
Verificado por MonsterInsights