Une personne pense avoir trouvé des phrases qui font partir en vrille la *TOTALITÉ* des LLM du marché (OpenAI ChatGPT/Microsoft CoPilot, Google Gemini...). Ce qui implique des problèmes de sécurité pour toutes les entreprises qui les utliisent.
Bon résumons où on en est sur les I.A. de type LLM :
- Les entreprises qui entraînent les LLM volent littéralement le travail des autres (puisques les LLM ont été entraînées sur le travail d'autruis) et VENDENT ensuite l'accès à ces LLM.
- Utiliser ce que produisent les LLM peut légalement vous mettre en danger puisqu'elles vont potentiellement recracher le travail d'autres personnes (sans la source ni la licence).
- Les jeux de données sont foireux puisqu'ils ont gobé tout internet. Donc ça sort de la merde (comme conseiller de mettre de la colle sur les pizzas pour que le fromage coule moins).
- *MÊME* quand les jeux de données sont bons, les LLM inventent n'importe quoi quand elles n'ont pas l'information.
- ça nécessite un matériel très couteux.
- ça consomme des quantités absolument énormes d'énergie.
- étant donnés les coûts, aucune de ces enteprises de LLM n'est actuellement rentable, pas même en faisant payer leurs clients. Ce n'est pas une technologie pérenne.
- il est impossible - structurellement - d'empêcher les LLM de dire de la merde. C'est dû à leur nature même.
- le seul moyen de réduire la quantité de merde que sortent les LLM, c'est de les corriger H24 en exploitant des armées de travailleurs sous-payés en Afrique (et c'est très exactement ce qui se passe).
- Cette "correction", c'est comme boucher le trou d'une passoire dès que vous en trouvez un. Une passoire qui a un nombre infini de trous.
Mais ça va bien se passer, hein, c'est l'avenir. C'est ce que disent tous les GAFAM.
(
Permalink)