La IA podría acabar con el Ser Humano en dos años / Eliezer Yudkowsky
Eliezer Yudkowsky advierte sobre los peligros de la IA para la humanidad Yudkowsky plantea una perspectiva sombría sobre el futuro de la IA y su impacto en la humanidad. El experto sugiere que el tiempo restante para la humanidad podría ser de solo dos a diez años. La adopción acelerada de la IA sin considerar sus riesgos potenciales preocupa a la comunidad científica. Eliezer Yudkowsky, reconocido bloguero y experto en inteligencia artificial, ha compartido una visión alarmante sobre el futuro de la humanidad en el contexto del desarrollo acelerado de la IA, en una reciente entrevista para The Guardian. Conocido por sus críticas hacia la rápida adopción de la inteligencia artificial, Yudkowsky estima que la supervivencia humana podría estar amenazada en un plazo de dos a diez años, situándonos más cerca de los cinco años que de los cincuenta. Esta perspectiva apocalíptica advierte sobre el potencial de las máquinas, dotadas de Inteligencia Artificial General, de causar la destrucción del planeta. La preocupación de Yudkowsky radica en la adopción indiscriminada de la IA sin una reflexión profunda sobre sus consecuencias negativas. Aunque de manera jocosa sugiere bombardear los centros de datos de IA como solución, su comentario subraya la inquietud existente entre algunos sectores científicos acerca de los riesgos de una IA no regulada y potencialmente dominante. Hace siete meses, durante sus charlas TED, Yudkowsky ya había expresado preocupaciones similares, especulando sobre un futuro en el que la humanidad se enfrenta a entidades más inteligentes con objetivos distintos a los nuestros, incapaces de valorar lo que consideramos importante. Este escenario, según él, podría desencadenar un conflicto de proporciones inimaginables. Yudkowsky no se opone al desarrollo de la IA per se, sino que aboga por una “IA amigable” que coexista con la humanidad de manera segura y beneficiosa. Sin embargo, para lograr esto, insiste en la necesidad de adoptar un enfoque crítico y reflexivo, frenando el avance descontrolado para evaluar y mitigar los riesgos asociados. Su postura encuentra eco en otras voces del ámbito científico y tecnológico, incluyendo a aquellos que han firmado manifiestos alertando sobre los peligros de una IA desregulada. […]