Bien sure que si c'est acceptable, tant qu'il y aura des freelance à 700€ / jour 
En dev solo je suis bien content de payer 200$ pour mon abo Claude Max actuellement et gagner 6 mois de dev sur un projet. Ca me permet de tenter ma chance avec mon idée à moindre risque.
Par le passé, j'aurais du recruter un dev pour m'épauler, probablement un front également (au point de dev où j'en suis actuellement), donc lever des fonds, quitter mon taff etc... Là je peux juste continuer de déleguer à Claude et avancer sur mon projet qui devient assez conséquents.
je fais avec ChatGPT + Deepseek + grok (jalterne)
ça marche assez bien mais ça hallucine qd meme pour le front.
en back c'est n'importe quoi. 0 respect des bonnes pratiques si tu ne lui dit pas.
mais une fois que tu passes un peu de doc ça cartonne
le pire c'est que ce qu'on voit c'est juste le coté immergé de l'iceberg
imaginé les IA en developpement en ce moment dans les grandes boites et dans les armées chinoises et US
on ets not ready
je fais avec ChatGPT + Deepseek + grok (jalterne)
ça marche assez bien mais ça hallucine qd meme pour le front.en back c'est n'importe quoi. 0 respect des bonnes pratiques si tu ne lui dit pas.
mais une fois que tu passes un peu de doc ça cartonne
Tu utilises le chat ?
Les meilleurs outils pour coder restent Claude (opus 4.5) ou GPT (5.2) actuellement, via CLI ou intégré à ton éditeur de code pour que l'IA ai acces a ta code base.
Actuellement elle devient très efficace pour explorer la code base à condition qu'elle soit bien architecturée.
Il y a même des MCP permettant a une IA "front" de voir les changements directement sur ton UI sur localhost pour pouvoir par exemple adapter le CSS en fonction de tes specs.
Le 31 décembre 2025 à 14:50:55 :
l'IA C'EST UNE BULLE QUI VA ÉCLATER !![]()
---------------10 ans plus tard-----------------
Ca va bien finir par éclater non ?
![]()
---------------10 ans plus tard-----------------
J'ajouterais:
MAIS NON L'IA CA SERT A RIEN, JE CODE 100x MIEUX et 100x PLUS VITE REGARDE LA IL A PAS RESPECTE MA CONVENTION DE NOM DE VARIABLE
Bon, je vais tenter un nouveau projet avec l’IA.
Pour rappel je ne suis pas dev du tout, mais à force de m’amuser avec, j’ai compris beaucoup de choses.
J’avais fait un topic « je lance un business avec l’IA », et j’ai dev une app. Le business est pas fou, mais j’ai beaucoup appris, et là je veux retry avec tout le retour d’expérience que j’ai eu.
Le 31 décembre 2025 à 17:34:21 :
tout ça pour 1600 ayo
Ca dépend de ta spécialité et du milieu ou tu bosses (les ESN
)
En startup, un junior ça va chercher 43k brut et il y a la place pour doubler en quelques années. (Je suis passé perso de 55k (senior) à 80k (lead) en 4 ans après une reconversion ingé -> data)
Le 31 décembre 2025 à 17:47:55 :
Le 31 décembre 2025 à 17:34:21 :
tout ça pour 1600 ayoCa dépend de ta spécialité et du milieu ou tu bosses (les ESN
)
En startup, un junior ça va chercher 43k brut et il y a la place pour doubler en quelques années. (Je suis passé perso de 55k (senior) à 80k (lead) en 4 ans après une reconversion ingé -> data)
bah après je suis pas "ingé"
c'est peut etre le problème... et après quasi deux ans au chomage tu acceptes
Le 31 décembre 2025 à 17:26:20 :
Bon, je vais tenter un nouveau projet avec l’IA.Pour rappel je ne suis pas dev du tout, mais à force de m’amuser avec, j’ai compris beaucoup de choses.
J’avais fait un topic « je lance un business avec l’IA », et j’ai dev une app. Le business est pas fou, mais j’ai beaucoup appris, et là je veux retry avec tout le retour d’expérience que j’ai eu.
https://www.youtube.com/watch?v=qCoJuEt2OsU
Ca c'est une demo du premier poc sur le concept "LLM deterministe" que j'avais bricolé il y a deux ans 
A l'époque je l'avais pas vibe codé du tout (back/front/LLM interface, tout fait "maison") et je basais tout sur des graphs d'actions deterministes. C'était un peu pourri, j'ai bien muri depuis 
La je me suis relancé sur ce projet en m'inspirant de design patterns plus modernes... Mon code source du core engine est prêt à 80% (c'est qu'une brique parmis d'autres) et je commence à faire des crashs tests la pour vérifier si tout marche comme prévu.
Le 31 décembre 2025 à 17:53:34 :
Le 31 décembre 2025 à 17:26:20 :
Bon, je vais tenter un nouveau projet avec l’IA.Pour rappel je ne suis pas dev du tout, mais à force de m’amuser avec, j’ai compris beaucoup de choses.
J’avais fait un topic « je lance un business avec l’IA », et j’ai dev une app. Le business est pas fou, mais j’ai beaucoup appris, et là je veux retry avec tout le retour d’expérience que j’ai eu.
https://www.youtube.com/watch?v=qCoJuEt2OsU
Ca c'est une demo du premier poc sur le concept "LLM deterministe" que j'avais bricolé il y a deux ans
A l'époque je l'avais pas vibe codé du tout (back/front/LLM interface, tout fait "maison") et je basais tout sur des graphs d'actions deterministes. C'était un peu pourri, j'ai bien muri depuis
La je me suis relancé sur ce projet en m'inspirant de design patterns plus modernes... Mon code source du core engine est prêt à 80% (c'est qu'une brique parmis d'autres) et je commence à faire des crashs tests la pour vérifier si tout marche comme prévu.
Sympa ton PoC ! Tu penses le sortir quand?
Là je code mon nouveau projet pour le fun (enfin c’est un pré-projet, c’est plusieurs agents IA qui vont m’aider à structurer un vrai projet).
J’ai un peu abusé sur la logique. Ça multiplie les appels aux Agents IA. Les appels GPT mettent entre 45 et 70s en moyenne.
Et il y a en moyenne 30 appels (mais ça peut aller jusqu’à 200 max, si c’est vraiment la merde).
Je suis qu’à l’appel 15 
python main.py
[SKIP] Profile already exists in memory.json
[SKIP] Terrains already exists in memory.json
[SKIP] Ideas already exist in memory.json
[LLM] model=gpt-5.2 | effort=high | time=73.2s
[LLM] model=gpt-5.2 | effort=high | time=30.1s
[LLM] model=gpt-5.2 | effort=high | time=71.0s
[LLM] model=gpt-5.2 | effort=high | time=57.1s
[LLM] model=gpt-5.2 | effort=high | time=45.3s
[LLM] model=gpt-5.2 | effort=high | time=48.1s
[LLM] model=gpt-5.2 | effort=high | time=44.0s
[LLM] model=gpt-5.2 | effort=high | time=55.2s
[LLM] model=gpt-5.2 | effort=high | time=41.9s
[LLM] model=gpt-5.2 | effort=high | time=41.7s
[LLM] model=gpt-5.2 | effort=high | time=33.7s
[LLM] model=gpt-5.2 | effort=high | time=22.1s
[LLM] model=gpt-5.2 | effort=high | time=43.4s
[LLM] model=gpt-5.2 | effort=high | time=29.0s
[LLM] model=gpt-5.2 | effort=high | time=51.7s
[LLM] model=gpt-5.2 | effort=high | time=51.2s
[LLM] model=gpt-5.2 | effort=high | time=45.8s
[LLM] model=gpt-5.2 | effort=high | time=45.1s
[LLM] model=gpt-5.2 | effort=high | time=36.1s
[LLM] model=gpt-5.2 | effort=high | time=42.1s
[LLM] model=gpt-5.2 | effort=high | time=40.9s
[LLM] model=gpt-5.2 | effort=high | time=27.5s
[LLM] model=gpt-5.2 | effort=high | time=42.4s
[LLM] model=gpt-5.2 | effort=high | time=31.4s
[LLM] model=gpt-5.2 | effort=high | time=42.7s
[LLM] model=gpt-5.2 | effort=high | time=50.8s
[LLM] model=gpt-5.2 | effort=high | time=44.0s
[LLM] model=gpt-5.2 | effort=high | time=51.2s
[LLM] model=gpt-5.2 | effort=high | time=45.8s
[LLM] model=gpt-5.2 | effort=high | time=52.0s
[LLM] model=gpt-5.2 | effort=high | time=35.4s
[LLM] model=gpt-5.2 | effort=high | time=19.4s
[LLM] model=gpt-5.2 | effort=high | time=36.7s
[LLM] model=gpt-5.2 | effort=high | time=42.4s
[LLM] model=gpt-5.2 | effort=high | time=31.4s
[LLM] model=gpt-5.2 | effort=high | time=42.7s
[LLM] model=gpt-5.2 | effort=high | time=50.8s
[LLM] model=gpt-5.2 | effort=high | time=44.0s
[LLM] model=gpt-5.2 | effort=high | time=51.2s
[LLM] model=gpt-5.2 | effort=high | time=45.8s
[LLM] model=gpt-5.2 | effort=high | time=52.0s
[LLM] model=gpt-5.2 | effort=high | time=35.4s
[LLM] model=gpt-5.2 | effort=high | time=19.4s
[LLM] model=gpt-5.2 | effort=high | time=36.7s
[LLM] model=gpt-5.2 | effort=high | time=42.7s
[LLM] model=gpt-5.2 | effort=high | time=50.8s
[LLM] model=gpt-5.2 | effort=high | time=44.0s
[LLM] model=gpt-5.2 | effort=high | time=51.2s
[LLM] model=gpt-5.2 | effort=high | time=45.8s
[LLM] model=gpt-5.2 | effort=high | time=52.0s
[LLM] model=gpt-5.2 | effort=high | time=35.4s
[LLM] model=gpt-5.2 | effort=high | time=19.4s
[LLM] model=gpt-5.2 | effort=high | time=36.7s
[LLM] model=gpt-5.2 | effort=high | time=50.8s
[LLM] model=gpt-5.2 | effort=high | time=44.0s
[LLM] model=gpt-5.2 | effort=high | time=51.2s
[LLM] model=gpt-5.2 | effort=high | time=45.8s
[LLM] model=gpt-5.2 | effort=high | time=52.0s
[LLM] model=gpt-5.2 | effort=high | time=35.4s
[LLM] model=gpt-5.2 | effort=high | time=19.4s
[LLM] model=gpt-5.2 | effort=high | time=36.7s
[LLM] model=gpt-5.2 | effort=high | time=51.2s
[LLM] model=gpt-5.2 | effort=high | time=45.8s
[LLM] model=gpt-5.2 | effort=high | time=52.0s
[LLM] model=gpt-5.2 | effort=high | time=35.4s
[LLM] model=gpt-5.2 | effort=high | time=19.4s
[LLM] model=gpt-5.2 | effort=high | time=36.7s
[LLM] model=gpt-5.2 | effort=high | time=45.8s
[LLM] model=gpt-5.2 | effort=high | time=52.0s
[LLM] model=gpt-5.2 | effort=high | time=35.4s
[LLM] model=gpt-5.2 | effort=high | time=19.4s
[LLM] model=gpt-5.2 | effort=high | time=36.7s
[LLM] model=gpt-5.2 | effort=high | time=52.0s
[LLM] model=gpt-5.2 | effort=high | time=35.4s
[LLM] model=gpt-5.2 | effort=high | time=19.4s
[LLM] model=gpt-5.2 | effort=high | time=36.7s
[LLM] model=gpt-5.2 | effort=high | time=19.4s
[LLM] model=gpt-5.2 | effort=high | time=36.7s
[LLM] model=gpt-5.2 | effort=high | time=36.7s
[LLM] model=gpt-5.2 | effort=high | time=33.9s
[LLM] model=gpt-5.2 | effort=high | time=33.9s
[LLM] model=gpt-5.2 | effort=high | time=44.1s
[LLM] model=gpt-5.2 | effort=high | time=65.3s
[LLM] model=gpt-5.2 | effort=high | time=48.8s
[LLM] model=gpt-5.2 | effort=high | time=45.0s
[LLM] model=gpt-5.2 | effort=high | time=51.0s
[LLM] model=gpt-5.2 | effort=high | time=46.5s
[LLM] model=gpt-5.2 | effort=high | time=36.3s
[LLM] model=gpt-5.2 | effort=high | time=24.6s
[LLM] model=gpt-5.2 | effort=high | time=37.3s
[LLM] model=gpt-5.2 | effort=high | time=32.9s
[LLM] model=gpt-5.2 | effort=high | time=50.9s
[LLM] model=gpt-5.2 | effort=high | time=50.3s
[LLM] model=gpt-5.2 | effort=high | time=40.0s
[LLM] model=gpt-5.2 | effort=high | time=52.0s
[LLM] model=gpt-5.2 | effort=high | time=46.3s
[LLM] model=gpt-5.2 | effort=high | time=54.2s
[LLM] model=gpt-5.2 | effort=high | time=32.8s
[LLM] model=gpt-5.2 | effort=high | time=19.6s
[LLM] model=gpt-5.2 | effort=high | time=49.2s
[LLM] model=gpt-5.2 | effort=high | time=31.4s
[LLM] model=gpt-5.2 | effort=high | time=42.7s
[LLM] model=gpt-5.2 | effort=high | time=37.0s
[LLM] model=gpt-5.2 | effort=high | time=40.2s
[LLM] model=gpt-5.2 | effort=high | time=60.8s
[LLM] model=gpt-5.2 | effort=high | time=67.0s
[LLM] model=gpt-5.2 | effort=high | time=81.0s
Je vais devenir ZINZIN, j'ai oublié de mettre dans mon code un systeme qui me permet de savoir précisement ou j'en suis.
Du coup j'ai AUCUNE idée de quand mon script aura fini de tourner 
juste ca enchaine les requêtes à GPT Ahi
Le 31 décembre 2025 à 18:32:47 :
j'ai un projet à faire et présenter dans une semaine , j'ai chat gpt 5.2, y a vraiment une grosse diff niveau code avec claude ? Si c'est le cas je prend l'abo à 200e tout de suite
De ce que je lis ici, GPT 5.2 et Claude Opus 4.5 sont les deux modèles en tête.
Mon feeling perso: GPT 5.2 est très pointu sur des questions très architecturales et est probablement meilleur dev "brut". Mais j'ai l'impression que les outils autour de Claude Code sont mieux développé, et donc pour explorer une grosse code base, Claude a l'air devant. Vraiment ça dépend du use case, et surtout, surtout, de la manière dont tu travailles avec l'IA et de tes capacités à penser ton code de manière "high level".
Sympa ton PoC ! Tu penses le sortir quand?
C'était un vieux poc ça, j'ai complètement changé de direction là (même si mon moteur peut toujours gérer des aventures textuelles
)
Actuellement mon objectif est d'utiliser mon moteur comme une mémoire neuro-symbolique pouvant remplacer les RAG classiques.
Et ce que je suis en train d'essayer de faire depuis hier... Créer un agent capable de finir pokemon rouge en s'appuyant sur mon concept de mémoire neuro symbolique 
Le 01 janvier 2026 à 12:39:56 :
Sympa ton PoC ! Tu penses le sortir quand?
C'était un vieux poc ça, j'ai complètement changé de direction là (même si mon moteur peut toujours gérer des aventures textuelles
)
Actuellement mon objectif est d'utiliser mon moteur comme une mémoire neuro-symbolique pouvant remplacer les RAG classiques.
Et ce que je suis en train d'essayer de faire depuis hier... Créer un agent capable de finir pokemon rouge en s'appuyant sur mon concept de mémoire neuro symbolique
Trop cool comme idée.
Moi ma pipeline IA m’a brisé.
Elle était supposée m’aider à trouver un projet, mais le challenger.
L’agent arbitre est un petit peu trop stricte, car il est passé de 46 idées à… 0.
JvArchive compagnon