L IA generativa es experimental y aún está en fase de desarrollo, puede cometer errores y lo hará: Es posible que se invente cosas. Cuando la IA generativa se inventa una respuesta, se conoce como alucinación. Las alucinaciones se producen porque, a diferencia de la forma en la que la Búsqueda de Google obtiene información de la Web, los LLMs no recogen información alguna. En su lugar, los LLMs predicen qué palabras van a aparecer a continuación en función de las entradas de los usuarios.
Por ejemplo, podrías preguntar "¿Quién ganará gimnasia femenina en los Juegos Olímpicos de Verano de Brisbane 2032?" y recibir una respuesta, aunque el evento aún no haya tenido lugar.
Es posible que no entienda correctamente algo. A veces, los productos de IA generativa malinterpretan el idioma, lo que cambia el significado.
Por ejemplo, tal vez te interese obtener más información sobre la lengua, el órgano que tenemos en la boca. Sin embargo, si pides información sobre la lengua, es posible que te dé información sobre la lengua en el sentido lingüístico de un idioma.