El consumo energético de la IA se está volviendo indomable

Comparte esta noticia:

El consumo energético de la IA se está volviendo indomable. Google propone adoptar las “cuatro M” para remediarlo

  • Google propone reducir el consumo energético de la IA con su plan de las “cuatro M”
  • Cómo las “cuatro M” de Google pueden salvar el planeta de la IA
  • Estrategia de Google: reducir la huella de carbono de la IA con cuatro pasos simples

Google propone una estrategia de cuatro frentes para atacar el creciente problema del consumo energético de la IA. Las “cuatro M” se centran en: modelos más eficientes, uso de hardware especializado, preferencia por la computación en la nube y optimización de la ubicación de centros de datos según la energía limpia disponible.

Google ha presentado una estrategia para abordar el problema del consumo energético de la inteligencia artificial, preocupante debido a su creciente demanda y huella de carbono. Publicada por el IEEE, esta estrategia se basa en cuatro prácticas denominadas “las 4M”, que pueden reducir la huella de carbono de los algoritmos de aprendizaje automático entre 100 y 1.000 veces. La primera M es el Modelo, que sugiere usar arquitecturas de aprendizaje automático más eficientes para reducir la necesidad de cómputo entre 3 y 10 veces. La segunda M es la Máquina, que implica usar hardware especializado en inteligencia artificial para mejorar la eficiencia de 2 a 5 veces. La tercera M es la Mecanización, que recomienda preferir la computación en la nube sobre la local para reducir la demanda de energía entre 1,4 y 2 veces. Finalmente, la cuarta M es el Mapeo, que se centra en optimizar la ubicación de los centros de datos según la energía limpia disponible para reducir las emisiones de 5 a 10 veces.

David Patterson, investigador de Google Research y autor principal del estudio, sostiene que seguir estas cuatro prácticas puede reducir la huella de carbono asociada al entrenamiento de la IA en lugar de aumentarla. A nivel de arquitectura, los nuevos modelos de IA son cada vez más eficientes gracias a técnicas como la “destilación de conocimiento”, utilizada por Google, Microsoft, OpenAI y Meta, para entrenar modelos más pequeños que imitan a uno más grande, demandando menos energía.

Google también ha desarrollado su propio hardware especializado, como las TPU (unidades de procesamiento tensorial), cuya última generación, llamada Trillium, es un 67% más eficiente energéticamente que la anterior. Además, la computación en la nube, que consume menos energía que la local, es otra práctica recomendada. Los centros de datos en la nube son más modernos y tienen máquinas más especializadas en el entrenamiento y la inferencia de IA.

Por último, el mapeo y la ubicación de los centros de datos en lugares donde los recursos renovables son abundantes es una estrategia clave para Google, Microsoft y Apple, que operan con un 90% de energía libre de carbono. A pesar de ello, Microsoft y OpenAI apuestan por expandir la capacidad nuclear para satisfacer la creciente demanda de energía.

Noticia elaborada a partir del artículo original publicado en Xataka

Comparte esta noticia:
Scroll al inicio
Verificado por MonsterInsights