Los Chatbots de IA se Inventan Muchas de las Respuestas / MIT

Comparte esta noticia:
Los Chatbots de IA se Inventan Muchas de las Respuestas / MIT

Cleanlab ha creado una herramienta, TLM, que puntuará la fiabilidad de los chatbots para asegurar respuestas precisas. Este sistema puede ser crucial en entornos profesionales y de atención al cliente, mejorando la confianza en las respuestas automatizadas y combinando IA con supervisión humana cuando sea necesario.

En un intento por mejorar la fiabilidad de los chatbots, Cleanlab, fundada por exinvestigadores del MIT, ha desarrollado una herramienta denominada Trustworthy Language Model (TLM). Este sistema evalúa la precisión de las respuestas de los chatbots mediante un sistema de puntuación que oscila entre 0 y 1, ayudando así a los usuarios a determinar la confiabilidad de la información recibida. Este enfoque es crucial en ámbitos profesionales donde la exactitud es fundamental.

A pesar de los avances en IA, los chatbots como ChatGPT y Copilot aún presentan problemas de “alucinaciones”, es decir, generan respuestas incorrectas o inventadas. Por ejemplo, cuando se les pregunta cuántas veces aparece la letra “N” en la palabra “enter”, a menudo responden incorrectamente. Este tipo de errores puede ser menor para usuarios generales, pero representa un riesgo significativo en entornos profesionales.

La herramienta de Cleanlab tiene el potencial de transformar no solo el entorno empresarial, permitiendo a las empresas utilizar grandes modelos de lenguaje con mayor seguridad, sino también mejorar el servicio de atención al cliente de manera automatizada. Si una respuesta cae por debajo de un umbral de confianza, se podría solicitar la intervención de un humano, combinando así la eficiencia de la IA con la supervisión humana para garantizar la calidad y precisión del servicio.

 

*** Información extraída del artículo original publicado en Xataka***

. . . .

Comparte esta noticia:
Scroll al inicio