20 de marzo de 2024

Reforzando el Futuro de la IA: Microsoft se Adelanta con Fichajes Estratégicos de DeepMind
00 ACTUALIDAD

Reforzando el Futuro de la IA: Microsoft se Adelanta con Fichajes Estratégicos de DeepMind

En un movimiento estratégico para consolidar su posición en el campo de la inteligencia artificial, Microsoft ha anunciado la incorporación de Mustafa Suleyman, cofundador de DeepMind, y su equipo a la nueva división MicrosoftAI. Este fichaje refleja la ambición de Microsoft de seguir innovando y liderando en la tecnología de inteligencia artificial, sector en el cual ya destaca gracias a su colaboración con OpenAI. Satya Nadella, CEO de Microsoft, ha expresado su entusiasmo por la llegada de Suleyman, destacando su trayectoria como fundador de DeepMind e Inflection, así como su visión y capacidad para liderar equipos en la consecución de objetivos audaces. Suleyman, junto con Karén Simonyan, cofundador y científico jefe de Inflection, se integrará en Microsoft como vicepresidente ejecutivo y consejero delegado de Microsoft AI, reportando directamente a Nadella. La formación de Microsoft AI y la integración de talentos de Inflection en la empresa subrayan el compromiso de Microsoft con el desarrollo de herramientas de IA avanzadas, como la mejora de su asistente Copilot y otros productos de consumo e investigación. La experiencia y el conocimiento del equipo de Inflection, reconocidos por sus contribuciones significativas al avance de la IA, prometen impulsar aún más la innovación en Microsoft. Este refuerzo en el equipo de IA de Microsoft no solo solidifica la alianza existente con OpenAI sino que también marca un camino hacia el desarrollo de productos innovadores basados en los modelos de OpenAI, manteniendo a Microsoft a la vanguardia de la IA generativa. La nueva estructura permitirá una mayor integración de la IA en productos clave de Microsoft, como Windows, Office y Bing, bajo la marca Copilot. La apuesta de Microsoft por el talento y la innovación en IA se produce en un momento crítico para la industria, donde la competencia entre grandes tecnológicas se intensifica. Google, a pesar de ser pionero en IA con DeepMind, ha encontrado competencia en el campo de la IA generativa, donde Microsoft ha sabido capitalizar su colaboración con OpenAI. La incorporación de Suleyman y su equipo a Microsoft no solo acelera el desarrollo de tecnologías antes consideradas imposibles sino que también reafirma el […]

La ley de inteligencia artificial abre una brecha entre las grandes empresas preparadas y las que recurren a código abierto
00 ACTUALIDAD

La ley de inteligencia artificial abre una brecha entre las grandes empresas preparadas y las que recurren a código abierto

La reciente aprobación del Acta de Inteligencia Artificial (AI Act) por la Unión Europea marca un antes y un después en la regulación del uso de la IA, estableciendo un marco legal que será obligatorio para proveedores, implementadores o importadores de estos sistemas en la UE. Esta legislación pretende asegurar que el desarrollo de la IA se realice de manera ética y responsable, pero también evidencia una creciente división entre las grandes corporaciones tecnológicas, ya adaptadas a estos requerimientos, y las entidades más pequeñas que apuestan por soluciones de código abierto. Empresas como IBM, Google y Microsoft han expresado su apoyo a la regulación, argumentando que contribuirá a un desarrollo más seguro y ético de la IA. Estas compañías, que han invertido en la creación de plataformas éticas, ven en la ley una oportunidad para reforzar la confianza pública en sus desarrollos tecnológicos. En contraste, la proliferación de herramientas de código abierto representa un desafío para entidades con menos recursos, ya que estas deben demostrar la conformidad de sus sistemas con la nueva normativa en entornos de prueba regulatorios o “sandboxes”. La ley europea ha suscitado un debate sobre el equilibrio entre fomentar la innovación y asegurar el uso ético de la IA. Mientras algunas voces en la comunidad científica y tecnológica defienden la importancia de la regulación para guiar el desarrollo de la IA, otras advierten sobre los riesgos de limitar el acceso a tecnologías potentes y su impacto en la creación de contenido dañino o en la proliferación de ciberataques. Las plataformas de código abierto, como la ofrecida por Hugging Face o la Universidad de Stanford, han democratizado el acceso a la IA, permitiendo una mayor diversidad en el desarrollo de la tecnología. Sin embargo, la nueva ley plantea interrogantes sobre cómo garantizar que estos sistemas cumplan con los estándares éticos y de seguridad sin coartar la innovación. A pesar de las preocupaciones, expertos en ciberseguridad como Maya Horowitz de Check Point son optimistas respecto a la capacidad de los defensores para utilizar la IA de manera efectiva frente a las amenazas. La carrera entre el uso de

RAFAEL TAMAMES / La ley de IA que no aporta y que sí resta
01 OPINION

RAFAEL TAMAMES / La ley de IA que no aporta y que sí resta

La reciente aprobación de la “Ley de Inteligencia Artificial” por el Parlamento Europeo el 13 de marzo de 2024 marca un hito en la regulación tecnológica, pero plantea serias preocupaciones sobre su impacto en la innovación y la libertad individual. Este reglamento, que inicialmente buscaba promover una tecnología ética a nivel global, ha evolucionado hasta definir de manera más compleja qué constituye un “Sistema de Inteligencia Artificial”, ampliando significativamente el alcance de lo que pretende regular. La ley introduce prácticas de IA prohibidas que, aunque bienintencionadas en su deseo de proteger a los ciudadanos, podrían interpretarse como restricciones a la libertad de expresión y a la innovación tecnológica. Se prohíben, por ejemplo, sistemas de IA que manipulen el comportamiento de las personas de manera perjudicial, así como la creación de bases de datos de reconocimiento facial a partir de imágenes obtenidas sin selección específica. Estas medidas, aunque buscan prevenir abusos, podrían detener el desarrollo de tecnologías beneficiosas en campos como la medicina y la seguridad. Además, la ley establece prohibiciones en contextos laborales y educativos excepto por razones médicas o de seguridad, lo que podría limitar el desarrollo y la aplicación de soluciones de IA que mejoren estos entornos. La clasificación de personas basada en datos biométricos también está restringida, una medida que busca evitar la discriminación pero que plantea interrogantes sobre la regulación excesiva en el avance tecnológico. Este enfoque regulatorio no solo amenaza con frenar la innovación en el campo de la IA, sino que también refleja una desconexión con el dinamismo y la capacidad de adaptación del mercado tecnológico. La falta de gigantes de la IA en Europa, en contraste con Estados Unidos, sugiere que la regulación puede estar desincentivando la inversión y el desarrollo tecnológico en el continente. La ley, en su esfuerzo por establecer un marco seguro para la implementación de la IA, parece no reconocer que la mejor garantía de precisión y seguridad en la tecnología proviene de los propios desarrolladores y del mercado, no de la imposición de restricciones legales. La responsabilidad y la resolución de conflictos deberían basarse en la protección de

VotingWorks: La Apuesta por la Transparencia en las Elecciones Americanas
00 ACTUALIDAD

VotingWorks: La Apuesta por la Transparencia en las Elecciones Americanas

En un contexto marcado por la desconfianza hacia las máquinas de votación en Estados Unidos, VotingWorks, una organización sin ánimo de lucro, se destaca por su compromiso con la transparencia. Esta pequeña empresa desafía a los grandes proveedores de tecnología electoral al compartir públicamente cada línea de código de sus máquinas a través de GitHub, permitiendo una inspección y verificación abierta por parte de cualquier interesado. El escepticismo hacia las máquinas de votación se ha intensificado, especialmente después de las elecciones de 2016, cuando se reveló que hackers rusos habían atacado los sistemas electorales de los 50 estados. Aunque no se encontraron pruebas de manipulación de votos, el evento subrayó la vulnerabilidad del sistema electoral ante ataques cibernéticos. En respuesta, el Departamento de Seguridad Nacional designó la infraestructura electoral como “infraestructura crítica”, resaltando la necesidad de fortalecer la seguridad electoral. VotingWorks aboga por un enfoque de código abierto como solución para aumentar la confianza en el sistema electoral. Según Ben Adida, cofundador de VotingWorks, un sistema de votación de código abierto elimina los secretos sobre su funcionamiento, facilitando su verificación y auditoría por parte de expertos independientes. Este enfoque ha ganado terreno, con diez estados utilizando ya el software de auditoría de código abierto de VotingWorks para sus procesos electorales. Sin embargo, no todos están convencidos de que el código abierto sea suficiente para garantizar la seguridad electoral. Críticos argumentan que, dada la complejidad del código y el tiempo limitado para su revisión, no se pueden detectar todos los posibles errores o vulnerabilidades. A pesar de estas preocupaciones, la transparencia y la facilidad de uso de las máquinas de VotingWorks han sido elogiadas por funcionarios electorales en Misisipi, donde ya se han implementado. El debate sobre la tecnología de votación en Estados Unidos continúa, con una división entre quienes prefieren las máquinas tradicionales y quienes abogan por una mayor transparencia y seguridad a través del código abierto. En New Hampshire, por ejemplo, la elección de tecnología electoral enfrenta a los proveedores tradicionales con VotingWorks, ofreciendo a los funcionarios electorales la posibilidad de elegir entre la continuidad y una apuesta por

YouTube Avanza en Transparencia: Introduce Etiquetas para Contenido de IA
00 ACTUALIDAD

YouTube Avanza en Transparencia: Introduce Etiquetas para Contenido de IA

Siguiendo el ejemplo de otras grandes plataformas como Meta, YouTube ha anunciado que exigirá a sus usuarios etiquetar el contenido generado por inteligencia artificial. Esta política apunta específicamente a contenido que ha sido alterado o sintetizado de manera que pueda parecer realista o tenga importancia significativa, diferenciándose de requerir etiquetas en todo contenido que utilice inteligencia artificial generativa. La decisión de YouTube de regular el contenido generado con ayuda de IA llega un mes después de que Meta introdujera una política similar para sus plataformas, incluidas Facebook, Instagram y Threads. A diferencia de Meta, que ya ha comenzado a amonestar a los usuarios que incumplen con sus directrices, YouTube opta inicialmente por confiar en la responsabilidad de los creadores, aunque no descarta tomar medidas en el futuro contra quienes no cumplan con la obligación de divulgar el uso de IA en sus contenidos. Las nuevas normas de YouTube especifican claramente qué tipo de contenido de IA requiere etiquetado, proporcionando ejemplos concretos para ilustrar los casos en los que es necesario. Entre estos ejemplos se incluyen imágenes generadas por IA que muestran situaciones ficticias pero realistas, como trabajadores de la salud rechazando pacientes, persecuciones de coches inexistentes en películas, desastres naturales ficticios y promociones de viaje engañosas basadas en imágenes sintéticas. Esta medida forma parte de los esfuerzos de Alphabet, la empresa matriz de YouTube, por combatir la desinformación relacionada con la IA en el contexto de las próximas elecciones presidenciales de 2024. Aunque Google, Meta y TikTok son actualmente las únicas grandes tecnológicas con políticas explícitas de IA para sus redes sociales, la iniciativa de YouTube destaca la creciente preocupación en la industria por el potencial de la IA para generar contenido engañoso. La compañía se une así al compromiso de promover una mayor transparencia y responsabilidad en el uso de tecnologías emergentes. Información extraída del artículo original publicado en Cinco Días. . . .

NVIDIA anuncia el chip que Redefine el Futuro de la Inteligencia Artificial
00 ACTUALIDAD

NVIDIA anuncia el chip que Redefine el Futuro de la Inteligencia Artificial

NVIDIA, valorada en billones de dólares, ha consolidado su posición como líder del mercado con el lanzamiento del H100, el chip de inteligencia artificial más avanzado hasta la fecha. Este logro no solo reafirma su dominio sobre gigantes tecnológicos como Alphabet y Amazon, sino que también marca el inicio de una nueva era con la introducción de dos chips innovadores orientados a la inteligencia artificial: el Blackwell B200 y el superchip GB200. El chip B200, con sus 200 mil millones de transistores, promete una potencia de hasta 20 petaflops FP4, mientras que el GB200, que combina dos GPUs B200 y una CPU Grace, puede aumentar el rendimiento en la inferencia de modelos de lenguaje de gran escala en hasta treinta veces. Este avance revolucionario reduce la necesidad de 8.000 GPUs para entrenar un modelo con 1.8 billones de datos a solo 2.000, estableciendo un nuevo estándar en eficiencia y capacidad. Además, NVIDIA ha lanzado un motor de transformador de segunda generación que duplica la capacidad de cálculo, el ancho de banda y el tamaño de los modelos. Complementariamente, el nuevo switch NVLink de última generación permite una comunicación más eficiente entre hasta 576 GPUs, alcanzando un ancho de banda bidireccional de 1.8 terabytes por segundo. Este conjunto de innovaciones no solo destaca la importancia de NVIDIA en el panorama tecnológico mundial, sino que también subraya cómo la empresa utiliza la inteligencia artificial para potenciar su propio rendimiento. Con estos avances, NVIDIA no solo está redefiniendo lo que es posible en el campo de la inteligencia artificial, sino que también está sentando las bases para futuros desarrollos que podrían transformar industrias enteras. Información extraída del artículo original publicado en La Vanguardia. . . . .

Scroll al inicio
Verificado por MonsterInsights