OpenAI explica por qué los modelos de lenguaje generan alucinaciones
En un esfuerzo por esclarecer uno de los problemas más persistentes en la inteligencia artificial generativa, OpenAI publicó una investigación sobre el fenómeno de las alucinaciones en modelos de lenguaje como ChatGPT, en la que identifica su origen estructural y propone ajustes en las métricas de evaluación para mitigarlo. OpenIA Las alucinaciones —respuestas que aparentan ser coherentes pero contienen datos falsos o inventados— son uno de los principales desafíos para la confiabilidad de los sistemas de IA. Estas respuestas pueden […]