Empleados de OpenAI advierten de los “riesgos” de la IA y de la falta de supervisión

Comparte esta noticia:

Un grupo de empleados y exempleados de OpenAI ha publicado una carta abierta donde expresan su preocupación por los graves riesgos de la IA y la falta de supervisión adecuada. Reconocen el potencial de la IA, pero destacan los peligros de manipulación, desinformación y pérdida de control de los sistemas autónomos que podrían incluso amenazar la extinción humana.

Un grupo de empleados y exempleados de OpenAI ha hecho pública una carta abierta en la que manifiestan su preocupación sobre el avance rápido de la inteligencia artificial (IA) y los “graves riesgos” que dicha tecnología conlleva, así como la falta de supervisión efectiva. A pesar de reconocer el gran potencial y los beneficios que la IA puede proporcionar a la humanidad, advierten de los peligros que su uso indebido puede acarrear, desde el refuerzo de desigualdades existentes, la manipulación y desinformación, hasta la posible pérdida de control sobre los sistemas autónomos de IA, lo que podría resultar en consecuencias catastróficas, incluso la extinción humana.

Las empresas de IA, incluidas las propias OpenAI, han reconocido estos riesgos, al igual que los gobiernos y expertos en IA de todo el mundo. Sin embargo, los empleados destacan que las compañías tienen incentivos financieros que las motivan a evitar una supervisión efectiva, y las estructuras de gobernanza corporativa existentes no son suficientes para contrarrestar esto. Además, señalan que estas empresas poseen información privilegiada y no pública sobre las capacidades y limitaciones de sus sistemas, así como sobre los niveles de riesgo asociados a diferentes tipos de daños. Actualmente, tienen obligaciones mínimas de compartir esta información con los gobiernos y ninguna con la sociedad civil.

Los empleados subrayan que mientras no exista una supervisión gubernamental adecuada, ellos mismos son de las pocas personas capaces de hacer que estas empresas rindan cuentas. No obstante, los acuerdos de confidencialidad y la falta de protecciones para denunciantes los limitan considerablemente en expresar sus preocupaciones. Llaman a las empresas de IA a no imponer acuerdos de no desprestigio, crear procesos anónimos para que los empleados puedan expresar sus inquietudes y fomentar una cultura de crítica abierta.

Un portavoz de OpenAI respondió a CNBC afirmando que la compañía está comprometida con un debate riguroso sobre la importancia de esta tecnología y mantiene una línea directa de integridad anónima, así como un Comité de Seguridad y Protección.

Noticia elaborada a partir del artículo original publicado en Bolsamanía

Comparte esta noticia:
Scroll al inicio
Verificado por MonsterInsights