ai generated cyborg robot 8351761Image by <a class="fal-attribute" href="https://pixabay.com/illustrations/ai-generated-cyborg-robot-8351761/?utm_source=link-attribution&utm_medium=referral&utm_campaign=image&utm_content=Free Media Assets">Chris_and_Ralph</a> from <a href="https://pixabay.com/illustrations/ai-generated-cyborg-robot-8351761/?utm_source=link-attribution&utm_medium=referral&utm_campaign=image&utm_content=Free Media Assets">Pixabay</a>
chatbots
Image by Chris_and_Ralph from Pixabay

scientificamerican.com

Un juez federal multó a un estudio jurídico de abogados de Nueva York con $5,000 después de que un abogado usara la herramienta de inteligencia artificial ChatGPT para redactar un informe para un caso de lesiones personales, lo que resultó en falsedades y casos anteriores inventados.

Investigadores de la Universidad de Stanford y de la Universidad de Yale descubrieron que errores similares son reiteradamente producidos en los contenidos generados por IA, en modelos LLM(large language model), produciendo respuestas que no coinciden con la realidad.

Los expertos en IA sostienen que la «alucinación» no es una cuestión técnica, sino más bien un problema de toma de decisiones colectiva, que requiere herramientas de IA generativas y sistemas de comprobación para mitigar las «alucinaciones». La calibración en los modelos lingüísticos puede causar «alucinaciones», ya que la exactitud puede entrar en conflicto con el texto original natural. Reducir la calibración puede mejorar la factualidad, pero introduce fallos en los chatbots de IA.

Muchos conflictos relacionados con las denominadas «alucinaciones de IA» tienen raíces en el marketing, las empresas tecnológicas han promocionado a sus grandes modelos lingüísticos (LLM) como herramientas digitales muy afiladas y capaces de resolver innumerables problemas e incluso reemplazar el trabajo humano.

Vectara está desarrollando un proyecto de tabla de clasificación para un «detector de alucinaciones», que podría emparejarse con un editor automatizado de IA para corregir errores antes de que lleguen a los usuarios. La empresa utiliza un LLM con un motor de recuperación para ofrecer información más precisa.

Hakkani-Tür investiga sistemas que combinan modelos lingüísticos con fuentes de información previamente establecidos, para aumentar la precisión. En un futuro en el que los sistemas especializados verifiquen los resultados de los LLM, las herramientas de IA diseñadas para usarse sólo en contextos específicos, podrían sustituir parcialmente a los modelos polivalentes.

Los chatbots de IA nunca dejarán de alucinar
https://www.scientificamerican.com/article/chatbot-hallucinations-inevitable/
Loading spinner