Jusqu'à présent les travaux pour limiter le baratinage des IA avaient toujours été empiriques (et souvent réalisés à coup de populations pauvres payées 2$ de l'heure : https://sebsauvage.net/links/?eaX_tQ, https://sebsauvage.net/links/?RZ7ziw), mais cette publication scientifique démontre que les "hallucinations" (aka le baratinage) des LLM n'est pas possible à éliminer.
EDIT: Article en français : https://intelligence-artificielle.developpez.com/actu/354600/L-hallucination-est-inevitable-et-serait-une-limitation-innee-des-grands-modeles-de-langage-en-intelligence-artificielle-selon-une-etude-sur-la-possibilite-d-eliminer-les-hallucinations-des-LLM/
(Permalink)