Bienvenue à ceux qui nous ont rejoint cette semaine, mon but ici est simple : couper le bruit et discuter de ce qui créer vraiment de la valeur sur le marché de l’IA.

Aujourd'hui on décrypte LE basculement tech qui sépare les amateurs des leaders.

On connait tous les LLM de base Chatgpt / Claude, tu fais une requête, il donne une réponse. Si elle n'est pas parfaite, tu lui dis et il corrige, jusqu’à ce que ton résultat soit bon.

On est manager du modèle qu’on guide sur chaque étape. Ok.

Le pouvoir des “Loops” (boucles de raisonnements)

La vraie valeur aujourd’hui a déjà quitté les agents de conversation, elle se déplace vers ces requêtes en “boucle”. L’agent ne va pas attendre votre retour pour se corriger, il va le faire avant :

1-Créer un premier output
2-Le repasse à l’analyse, se critique / retest / compare
3-Se corrige tout seul
4-Livre le bon résultat du “premier coup”

C’est exactement ce mécanisme qui permet aux outils de dev, Cursor / Claude Code de sortir un output qui marche du premier coup (one-shot) de super qualité. Tant que le code n’est pas run avec succès, l'IA ne nous le transmet pas.

Pourquoi ça change tout ( et pourquoi il faut s’y mettre )

C’est ce qui fait la différence entre l’output ultra général de ChatGPT et la possibilité de dresser des automatisations ultra nichées.

Si on prend Cursor, c’est pas un nouveau modèle, sous le capot c’est du “GPT”. Leur valeur est dans l'orchestration de la boucle, et ils sont valorisés 29.3 milliards.

Cette boucle de logique va s’appliquer dans toutes les niches business, marketing, juridique, vente, Anthropic le prépare déjà.

La meilleure façon de préparer l'arrivée des agents (comme ceux d'Anthropic ou d'OpenAI), c'est pas d'en créer 800 qui vont servir à rien. C'est de faire le pont entre ta niche (métier) et ces agents, en rassemblant le plus de data sur les process, pour que l’orchestration apporte un bon résultat dans ton domaine.

Côté pratique :


Le premier problème qu’on rencontre quand on commence à poncer ces outils, c’est la barre de la limite de tokens (consommation). Ces agents raisonnent tellement qu'en qlq prompt tu peut avoir cramé tes crédits de la journée, et là le temps s’arrête…

La gestion de la mémoire ça s’optimise, vous êtes pas mal à me dire que vous consommez bcp trop. Commencez par tester ca :

-Pour une conv GPT / Claude qui devient trop longue, quand le LLM commence a perdre en pertinence, demande-lui de dresser un résumé complet de tout ce qu’il vient de valider jusqu’ici, incluant l’objectif final. Puis tu colles ce résumé dans une nouvelle page, et là ca re-bombarde.

-Pour les agents, on entend souvent que le JSON est le meilleur format pour structurer les data. C'est fake, mieux vaut privilégiez le Markdown. En supprimant le "bruit" du code (accolades & guillemets), il réduit le poids de vos requêtes jusqu'à 40%. Vous gagnez en vitesse, vous divisez vos coûts, et votre agent reste clair bien plus longtemps :)

OÙ va l’IA et à quoi s’attendre ?

Podcasts que je recommande cette semaine pour se faire son idée sur la question :

-Peter Steinberger, fondateur de Claude Code qui explique ou il voit l’IA aller, tout le monde parle de lui mais personne écoute autre chose que la hype, ici tu l’as : https://www.youtube.com/watch?v=9jgcT0Fqt7U&t=1681s

Keep Reading