Un informe encargado por el Departamento de Estado de EE.UU. y publicado por Gladstone AI, tras entrevistar a más de 200 expertos, incluidos ejecutivos de IA, investigadores de ciberseguridad y funcionarios de seguridad nacional, plantea una visión alarmante sobre los riesgos catastróficos que la inteligencia artificial podría representar para la seguridad nacional. El documento sugiere que los sistemas de inteligencia artificial avanzados podrían, en el peor de los casos, suponer una amenaza de extinción para la especie humana. Aunque el informe no refleja las opiniones del gobierno estadounidense, subraya la necesidad urgente de acción federal para prevenir un desastre potencial.
El informe destaca dos peligros principales de la IA: el uso de sistemas avanzados como armas y la posibilidad de que los desarrolladores pierdan el control de estos sistemas, lo que podría tener consecuencias devastadoras para la seguridad global. Se menciona el potencial de una carrera armamentista en IA, conflictos y accidentes mortales a gran escala. Para contrarrestar estos riesgos, se sugieren medidas drásticas como la creación de una nueva agencia de IA, la implementación de salvaguardias regulatorias de emergencia y límites a la potencia computacional para entrenar modelos de IA.
El presidente Joe Biden ha tomado acciones significativas al respecto, siendo su decreto sobre la IA una de las medidas más destacadas a nivel mundial para gestionar los riesgos y promesas de esta tecnología. Sin embargo, el informe enfatiza la “necesidad clara y urgente” de una mayor intervención por parte del gobierno de EE.UU.
Entre los entrevistados para el informe se encuentran equipos de OpenAI, Google DeepMind, Meta, y Anthropic, revelando una preocupación común sobre la seguridad insuficiente en relación con los riesgos que la IA podría presentar pronto para la seguridad nacional. El informe advierte que la competencia en el desarrollo de la IA podría llevar a que sistemas avanzados sean robados o utilizados como armas contra Estados Unidos.
El documento también refleja una creciente preocupación entre líderes empresariales y figuras prominentes de la industria sobre los riesgos existenciales de la IA, incluidas declaraciones de Geoffrey Hinton, quien sugiere que la IA podría llevar a la extinción humana en las próximas décadas. Además, se mencionan las variadas estimaciones sobre la posibilidad de incidentes catastróficos provocados por la IA en 2024, que oscilan entre el 4% y el 20%.
El rápido desarrollo de la inteligencia general artificial (AGI), una forma de IA con capacidades de aprendizaje similares o superiores a las humanas, es señalado como el principal impulsor del riesgo catastrófico. Aunque existe desacuerdo sobre cuándo se alcanzará la AGI, algunas estimaciones sugieren que podría ser tan pronto como en 2028. Este desacuerdo dificulta el desarrollo de políticas y salvaguardias adecuadas, y existe el riesgo de que la regulación pueda ser perjudicial si la tecnología avanza más lentamente de lo esperado.
Este informe subraya la importancia crítica de abordar los riesgos asociados con la inteligencia artificial, instando a una acción gubernamental inmediata y coordinada para prevenir posibles desastres futuros.
Información extraída del artículo original publicado en CNN Español.
.
.
.
.