- Sundar Pichai admite fallos en la IA de Google
- Google enfrenta críticas por respuestas y representaciones sesgadas de su IA
- La nueva IA de Google, Gemini, bajo escrutinio por sus errores
La reciente inteligencia artificial de Google, Gemini, ha experimentado un lanzamiento turbulento, lo que ha llevado a Google a pausar algunas de sus funciones tras la difusión de resultados ofensivos y erróneos en redes sociales. La herramienta ha fallado al representar personas de diferentes razas en contextos históricos, insertando figuras de raza asiática o negra en imágenes de vikingos, nazis o caballeros medievales ingleses, y generando respuestas textuales sesgadas. Sundar Pichai, CEO de Google, ha reconocido estos problemas como “completamente inaceptables”, indicando un fallo en la intención de la compañía por promover la diversidad en sus representaciones. Pichai subraya que, aunque ninguna IA es perfecta en esta fase de desarrollo, Google se compromete a resolver estos errores. El incidente resalta la necesidad de abordar los sesgos inherentes en los datos de entrenamiento de las IA y representa un desafío para Google, que busca mantener su liderazgo en innovación frente a competidores como OpenAI.
El desafío de Google con Gemini refleja una problemática más amplia en la tecnología de IA, donde el entrenamiento con datos sesgados puede perpetuar prejuicios. Esta situación pone de relieve la importancia de desarrollar inteligencias artificiales que puedan entender y representar de manera justa la diversidad humana sin caer en estereotipos o errores de contextualización. La respuesta de Google ante este escándalo será crucial para su imagen y para la evolución futura de las IA, en un momento donde la competencia en el campo de la inteligencia artificial se intensifica.
Para más información, lee el artículo completo en El Mundo.
.
.