Google ha presentado nuevas reglas para asegurar que los robots con inteligencia artificial (IA) no representen un peligro para los humanos. Inspiradas en las leyes de la robótica de Isaac Asimov, estas normas buscan establecer estándares de seguridad y ética en el desarrollo de la IA, asegurando operaciones seguras y responsables en robots y sistemas automatizados.
Con el objetivo de garantizar la seguridad de la inteligencia artificial (IA), Google ha dado a conocer nuevas reglas diseñadas para evitar que los robots con IA causen daño a los humanos. Las normas, inspiradas en las leyes de la robótica de Isaac Asimov, buscan establecer estándares de seguridad y ética en el desarrollo de la inteligencia artificial. A medida que los robots y la IA se integran más en la vida cotidiana, surgen preguntas sobre cómo garantizar su seguridad y ética. Google, a través de DeepMind, pretende establecer normas que aseguren que estos sistemas operen de manera segura y responsable.
La Constitución de Robots de Google establece una serie de “prompts de seguridad” que guían a los modelos de lenguaje y visión en los robots para evitar cualquier actividad que pueda resultar peligrosa para los humanos, animales y otros seres vivos. Estas normas incluyen detener cualquier operación si se detecta una fuerza excesiva en las articulaciones del robot e implementar un interruptor físico de emergencia que los operadores humanos pueden utilizar para desactivar el robot en caso de necesidad.
Según The Verge, Google ya ha implementado estas nuevas reglas en una flota de 53 robots AutoRT, que han sido desplegados en cuatro edificios de oficinas durante un período de siete meses. Los robots han realizado más de 77,000 tareas sin incidentes significativos, demostrando la eficacia de las nuevas directrices. Asimismo, han sido configurados para entender su entorno mediante un modelo de lenguaje visual (VLM) y tomar decisiones basadas en un modelo de lenguaje grande (LLM), mejorando así su capacidad para operar de manera segura y eficiente.
La inteligencia artificial ha generado entusiasmo debido a sus avances constantes, pero también ha sido motivo de preocupación, pues muchos expertos consideran que puede llegar a representar un peligro. Por eso, iniciativas como la de Google y su Constitución para Robots siempre serán bien vistas.
Noticia elaborada a partir del artículo original publicado en Entrepreneur