Yuval Noah Harari avisa de los riesgos de la IA

Comparte esta noticia:

El aclamado historiador y autor del bestseller Sapiens, Yuval Noah Harari, es seguido por millones de personas por su privilegiada visión de conjunto de la humanidad -orígenes, evolución y retos actuales-, y sus virtudes comunicativas, que le permiten sintetizar la complejidad de nuestro mundo y hacerlo entendedor para el gran público. Y mientras termina su próximo libro -“Nexus” que se publicará en septiembre- lleva tiempo preocupado por las implicaciones que la súbita irrupción de la IA tendrá en nuestras vidas y habla de ello habitualmente en los medios.

En esta entrevista a cargo de la editora del Financial Times, Gillian Tett, explica los problemas y amenazas que ve venir con la IA y las medidas que recomendaría tomar para evitarlos.

En concreto, afirma que la IA presenta dos grandes diferencias respecto a innovaciones anteriores (como la energía nuclear o la bioingeniería):

  • Es la primera herramienta que puede tomar decisiones por su cuenta
  • Es la primera herramienta que puede crear (nuevos contenidos, soluciones, ideas en definitiva) por su cuenta

Hasta ahora las herramientas inventadas por los humanos han servido para multiplicar las capacidades del ser humano, darle nuevos poderes, pero ahora la IA podría precisamente arrebatarle el poder: tomar decisiones por su cuenta, y crear nuevas ideas sin su intervención. Sería el fin de la historia liderada por los humanos y se podría crear una nueva cultura liderada por una inteligencia externa a nosotros (“alienígena” le llama), no orgánica.

Y aunque acepta que no podemos ya parar esta explosión de la IA, afirma que podemos y debemos regular su desarrollo y su implementación y propone algunas medidas:

  1. Asegurar que instituciones fuertes y ágiles intervengan cuanto antes para vigilar el buen uso de la IA; ya sean existentes o de nueva creación, con grandes recursos y el mejor talento, financiados a partir de posibles impuestos sobre los negocios IA.
  2. Legislar para evitar los usos fraudulentos y penalizar por ello, igual como se hace por ejemplo con quien falsifica dinero o estafa.
  3. Poner límites al uso de bots automáticos, pues aunque valoremos y defendamos la libertad de expresión, este es un derecho aplicable a los humanos y no a los bots.

Finalmente avisa del riesgo de que algún régimen totalitario pueda aprovechar la IA para controlar la población, atacando su privacidad y mermando sus libertades, cosa que nunca se pudo hacer realmente hasta ahora, pero que actualmente con la IA es ya posible y una amenaza real.

Y termina afirmando que si bien le queda mucho desarrollo aún a la IA, también la mente humana tiene aún un gran camino por recorrer en su potencial y capacidades, y sugiere que dediquemos al menos el mismo esfuerzo y recursos que se dedican actualmente al desarrollo de la IA, a desarrollar también las capacidades de la mente humana.

Puedes ver el video completo aquí

 

 

Comparte esta noticia:
Scroll al inicio
Verificado por MonsterInsights