Según Pablo Velan, CTO y socio de N5, los chatbots de IA generativa a menudo cometen errores que van más allá de simplemente proporcionar información falsa o proveniente de fuentes no confiables.
Los chatbots de inteligencia artificial (IA) generativa suelen cometer errores que van más allá de proporcionar información incorrecta o no confiable. A menudo “alucinan”, un término que los especialistas utilizan para describir respuestas erróneas, imprecisas o inventadas. Esto ocurre porque los modelos de IA son entrenados con grandes volúmenes de datos, que pueden ser insuficientes, obsoletos o inconsistentes. Además, la IA no tiene comprensión real de la información que maneja, como explica Pablo Velan, CTO de N5.
Velan señala que, ante preguntas ambiguas o con poco contexto, la IA puede hacer suposiciones incorrectas, lo cual no es un problema cuando se usa de forma recreativa, pero puede ser perjudicial para las empresas que dependen de decisiones precisas. Según Vectara, la tasa de alucinación en chatbots puede variar entre un 3% y un 27%.
Para evitar estos errores, algunos modelos se entrenan con fuentes de información cerradas, específicas del sector financiero, por ejemplo. En N5, han desarrollado “Fin Skys”, inteligencia artificial especializadas en el sector financiero que responden con precisión el 99% de las veces, gracias a un modelo distribuido que valida cada paso del proceso de consulta.
Las soluciones como AIfred, Pep y Singular han sido diseñadas para minimizar estos problemas y ofrecer una asistencia integral en el sector financiero, desde responder consultas hasta gestionar inversiones y asesoramiento fiscal. Estas IAs, integrables en cualquier sistema, priorizan la seguridad y la confiabilidad, reduciendo significativamente las alucinaciones.
A medida que la IA evoluciona, enfrentará nuevos desafíos, pero los expertos están preparados para adaptarse y superar estos obstáculos.