Citation :
Quand j'utilise une technologie, c'est que je peux lui faire confiance. Quand j'appuie sur le bouton de l'ascenseur, j'attends de lui qu'il m'emmène à l'étage indiqué, pas qu'il s'écrase au fond du sous-sol ou qu'il m'envoie dans un étage aléatoire. Ma cafetière doit chauffer, ma voiture rouler... Les supporters de l'IA parlent souvent de celle-ci comme d'un "outil". Soit. Mais la particularité d'un outil, c'est d'être fiable dans l'accomplissement de sa fonction.
Une technologie qui se trompe, qui invente ou dont le résultat est aléatoire ou non-fiable, comment lui faire confiance?
Cette question est très pertinente.
Mais c'est un problème de paradigme. ChatGPT n'est pas un ascenseur mais une calculette.
Si tu ne sais pas quel calcul tu es en train de faire, tu ne sauras pas quoi faire du résultat. Donc d'abord, avant de l'utiliser, il faut comprendre quels calculs sont pertinents, et savoir comment interpréter le résultat d'un calcul.
C'est pareil ici. Ces machines ne font rien d'autre que de réduire des matrices de taille 10^15. C'est à la fois trivial, et incroyablement impressionnant.
Elles simplifient de l'information. Mettent en ordre. Réduisent la complexité, démêlent des noeuds.
Mais, et je vais me répéter, car même si je l'ai déjà dit 100 fois, enseigner, c'est répéter encore et encore et encore :
La manière de formuler est fondamentale. La manière de formuler le problème change intégralement le cheminement de pensée par lequel la machine va passer et le résultat qu'elle donnera. Chaque détail sur le contexte de la question, la raison pour laquelle on se la pose, le type de réponse qu'on attend, la méthodologie qu'on attend de la part de la machine pour réfléchir, tout ceci impacté ÉNORMÉMENT la réponse et sa fiabilité.
Voilà pourquoi je tanne Sly à ne pas juste parler à grok comme à son pote. En lui parlant comme à son pote, il le conditionne à lui dire de la merde et à le désinformer. VOLONTAIREMENT.
C'est comme une calculette qu'il faut lui parler, car c'est ce que c'est. Il avant de rentrer des calculs dans une calculette, on s'assure de savoir ce qu'on est en train de calculer. On ne tape pas des nombres au hasard en espérant que le résultat ai un sens. Ce serait absurde. Il en est de même ici.
Ça me paraît incroyable de devoir encore expliquer ça en 2026 alors que ça fait 3 ans que ces technologies sont omniprésentes, mais c'est indispensable. Lorsque les gens vous parlent de "gâchis d'énergie à cause de l'IA", ils vous parlent en fait littéralement de "gâchis d'énergie à cause de questions mal posées".
--------
Je sais bien que vous avez du mal à comprendre que je suis très sérieux et que tous ces conseils vous aideront énormément.
Je vous propose d'écouter
Terence Tao qui vous présentera les choses d'une manière peut-être plus digeste, et surtout sa réputation fera que vous écouterez peut-être avec plus d'attention ce qu'il dit, qui est basiquement ce que je m'égosille à répéter depuis 3 ans.
Le problème est paradigmatique. Considérer les chatbots comme des ascenseurs ou des potes est l'assurance de mal les utiliser. Croire qu'ils peuvent "mentir" également. Ce sont des calculettes.
Lorsqu'un chatbot sort une connerie, c'est l'équivalent du
syntex error ou
math error de ta calculette, sauf que la subtilité c'est que ce n' est pas écrit tel quel. C'est à l'utilisateur de s'assurer que sa question est bien formulée, et de vérifier grâce à sa capacité d'analyse si la réponse est une connerie (hallucination) ou non. Mieux la question sera formulée, plus le risque d'hallucination sera faible.