La ley de inteligencia artificial abre una brecha entre las grandes empresas preparadas y las que recurren a código abierto

Comparte esta noticia:
La ley de inteligencia artificial abre una brecha entre las grandes empresas preparadas y las que recurren a código abierto

La reciente aprobación del Acta de Inteligencia Artificial (AI Act) por la Unión Europea marca un antes y un después en la regulación del uso de la IA, estableciendo un marco legal que será obligatorio para proveedores, implementadores o importadores de estos sistemas en la UE. Esta legislación pretende asegurar que el desarrollo de la IA se realice de manera ética y responsable, pero también evidencia una creciente división entre las grandes corporaciones tecnológicas, ya adaptadas a estos requerimientos, y las entidades más pequeñas que apuestan por soluciones de código abierto.

Empresas como IBM, Google y Microsoft han expresado su apoyo a la regulación, argumentando que contribuirá a un desarrollo más seguro y ético de la IA. Estas compañías, que han invertido en la creación de plataformas éticas, ven en la ley una oportunidad para reforzar la confianza pública en sus desarrollos tecnológicos. En contraste, la proliferación de herramientas de código abierto representa un desafío para entidades con menos recursos, ya que estas deben demostrar la conformidad de sus sistemas con la nueva normativa en entornos de prueba regulatorios o “sandboxes”.

La ley europea ha suscitado un debate sobre el equilibrio entre fomentar la innovación y asegurar el uso ético de la IA. Mientras algunas voces en la comunidad científica y tecnológica defienden la importancia de la regulación para guiar el desarrollo de la IA, otras advierten sobre los riesgos de limitar el acceso a tecnologías potentes y su impacto en la creación de contenido dañino o en la proliferación de ciberataques.

Las plataformas de código abierto, como la ofrecida por Hugging Face o la Universidad de Stanford, han democratizado el acceso a la IA, permitiendo una mayor diversidad en el desarrollo de la tecnología. Sin embargo, la nueva ley plantea interrogantes sobre cómo garantizar que estos sistemas cumplan con los estándares éticos y de seguridad sin coartar la innovación.

A pesar de las preocupaciones, expertos en ciberseguridad como Maya Horowitz de Check Point son optimistas respecto a la capacidad de los defensores para utilizar la IA de manera efectiva frente a las amenazas. La carrera entre el uso de la IA para fines maliciosos y su aplicación en la defensa cibernética se encuentra en un punto crítico, donde la regulación podría desempeñar un papel fundamental en mantener el equilibrio a favor de la seguridad y la ética.

En resumen, la ley de IA de la UE abre un nuevo capítulo en la gestión de la inteligencia artificial, con implicaciones significativas tanto para las grandes empresas tecnológicas como para los proyectos de código abierto. Mientras se busca fomentar un desarrollo responsable de la IA, persiste el reto de no limitar la creatividad y el progreso tecnológico.

Información extraída del artículo original publicado en El País.

.
.
.
.

Comparte esta noticia:

La ley de inteligencia artificial abre una brecha entre las grandes empresas preparadas y las que recurren a código abierto

Scroll al inicio