Topic de dabhu00 :

[Dev] J'ai test Claude Opus 4.5 et...

Bien sure que si c'est acceptable, tant qu'il y aura des freelance à 700€ / jour :hap:

En dev solo je suis bien content de payer 200$ pour mon abo Claude Max actuellement et gagner 6 mois de dev sur un projet. Ca me permet de tenter ma chance avec mon idée à moindre risque.

Par le passé, j'aurais du recruter un dev pour m'épauler, probablement un front également (au point de dev où j'en suis actuellement), donc lever des fonds, quitter mon taff etc... Là je peux juste continuer de déleguer à Claude et avancer sur mon projet qui devient assez conséquents.

je fais avec ChatGPT + Deepseek + grok (jalterne)
ça marche assez bien mais ça hallucine qd meme pour le front.

en back c'est n'importe quoi. 0 respect des bonnes pratiques si tu ne lui dit pas.

mais une fois que tu passes un peu de doc ça cartonne

le pire c'est que ce qu'on voit c'est juste le coté immergé de l'iceberg

imaginé les IA en developpement en ce moment dans les grandes boites et dans les armées chinoises et US
on ets not ready

je fais avec ChatGPT + Deepseek + grok (jalterne)
ça marche assez bien mais ça hallucine qd meme pour le front.

en back c'est n'importe quoi. 0 respect des bonnes pratiques si tu ne lui dit pas.

mais une fois que tu passes un peu de doc ça cartonne

Tu utilises le chat ?

Les meilleurs outils pour coder restent Claude (opus 4.5) ou GPT (5.2) actuellement, via CLI ou intégré à ton éditeur de code pour que l'IA ai acces a ta code base.

Actuellement elle devient très efficace pour explorer la code base à condition qu'elle soit bien architecturée.

Il y a même des MCP permettant a une IA "front" de voir les changements directement sur ton UI sur localhost pour pouvoir par exemple adapter le CSS en fonction de tes specs.

l'IA C'EST UNE BULLE QUI VA ÉCLATER ! https://image.noelshack.com/fichiers/2022/20/1/1652724098-soy.png

---------------10 ans plus tard-----------------

Ca va bien finir par éclater non ? https://image.noelshack.com/fichiers/2022/22/3/1654118163-soyboy.jpg

---------------10 ans plus tard-----------------

https://image.noelshack.com/fichiers/2021/52/1/1640561091-fdgm-dnwyaehjvx.jpeg bulle bulle bulle bulle bulle https://image.noelshack.com/fichiers/2021/20/3/1621430176-7dd.png

Le 31 décembre 2025 à 14:50:55 :
l'IA C'EST UNE BULLE QUI VA ÉCLATER ! https://image.noelshack.com/fichiers/2022/20/1/1652724098-soy.png

---------------10 ans plus tard-----------------

Ca va bien finir par éclater non ? https://image.noelshack.com/fichiers/2022/22/3/1654118163-soyboy.jpg

---------------10 ans plus tard-----------------

https://image.noelshack.com/fichiers/2021/52/1/1640561091-fdgm-dnwyaehjvx.jpeg bulle bulle bulle bulle bulle https://image.noelshack.com/fichiers/2021/20/3/1621430176-7dd.png

https://image.noelshack.com/fichiers/2018/26/7/1530476579-reupjesus.png

J'ajouterais:

MAIS NON L'IA CA SERT A RIEN, JE CODE 100x MIEUX et 100x PLUS VITE REGARDE LA IL A PAS RESPECTE MA CONVENTION DE NOM DE VARIABLE https://image.noelshack.com/fichiers/2021/05/7/1612718256-soy-boy.png

---------------10 ans plus tard-----------------
https://image.noelshack.com/fichiers/2017/18/1493851345-rsaaaaaaa.png

Bon, je vais tenter un nouveau projet avec l’IA.

Pour rappel je ne suis pas dev du tout, mais à force de m’amuser avec, j’ai compris beaucoup de choses.

J’avais fait un topic « je lance un business avec l’IA », et j’ai dev une app. Le business est pas fou, mais j’ai beaucoup appris, et là je veux retry avec tout le retour d’expérience que j’ai eu.

le milieu IT me soule, trop peu d'entraide
les patrons qui veulent que tu sois efficace en 2 jours sans te former sur le projet

Le 31 décembre 2025 à 17:34:21 :
tout ça pour 1600 ayo

Ca dépend de ta spécialité et du milieu ou tu bosses (les ESN :mort: )

En startup, un junior ça va chercher 43k brut et il y a la place pour doubler en quelques années. (Je suis passé perso de 55k (senior) à 80k (lead) en 4 ans après une reconversion ingé -> data)

Le 31 décembre 2025 à 17:47:55 :

Le 31 décembre 2025 à 17:34:21 :
tout ça pour 1600 ayo

Ca dépend de ta spécialité et du milieu ou tu bosses (les ESN :mort: )

En startup, un junior ça va chercher 43k brut et il y a la place pour doubler en quelques années. (Je suis passé perso de 55k (senior) à 80k (lead) en 4 ans après une reconversion ingé -> data)

bah après je suis pas "ingé"

c'est peut etre le problème... et après quasi deux ans au chomage tu acceptes

Le 31 décembre 2025 à 17:26:20 :
Bon, je vais tenter un nouveau projet avec l’IA.

Pour rappel je ne suis pas dev du tout, mais à force de m’amuser avec, j’ai compris beaucoup de choses.

J’avais fait un topic « je lance un business avec l’IA », et j’ai dev une app. Le business est pas fou, mais j’ai beaucoup appris, et là je veux retry avec tout le retour d’expérience que j’ai eu.

https://www.youtube.com/watch?v=qCoJuEt2OsU

Ca c'est une demo du premier poc sur le concept "LLM deterministe" que j'avais bricolé il y a deux ans :hap:

A l'époque je l'avais pas vibe codé du tout (back/front/LLM interface, tout fait "maison") et je basais tout sur des graphs d'actions deterministes. C'était un peu pourri, j'ai bien muri depuis :hap:

La je me suis relancé sur ce projet en m'inspirant de design patterns plus modernes... Mon code source du core engine est prêt à 80% (c'est qu'une brique parmis d'autres) et je commence à faire des crashs tests la pour vérifier si tout marche comme prévu.

Le 31 décembre 2025 à 17:53:34 :

Le 31 décembre 2025 à 17:26:20 :
Bon, je vais tenter un nouveau projet avec l’IA.

Pour rappel je ne suis pas dev du tout, mais à force de m’amuser avec, j’ai compris beaucoup de choses.

J’avais fait un topic « je lance un business avec l’IA », et j’ai dev une app. Le business est pas fou, mais j’ai beaucoup appris, et là je veux retry avec tout le retour d’expérience que j’ai eu.

https://www.youtube.com/watch?v=qCoJuEt2OsU

Ca c'est une demo du premier poc sur le concept "LLM deterministe" que j'avais bricolé il y a deux ans :hap:

A l'époque je l'avais pas vibe codé du tout (back/front/LLM interface, tout fait "maison") et je basais tout sur des graphs d'actions deterministes. C'était un peu pourri, j'ai bien muri depuis :hap:

La je me suis relancé sur ce projet en m'inspirant de design patterns plus modernes... Mon code source du core engine est prêt à 80% (c'est qu'une brique parmis d'autres) et je commence à faire des crashs tests la pour vérifier si tout marche comme prévu.

Sympa ton PoC ! Tu penses le sortir quand?

Là je code mon nouveau projet pour le fun (enfin c’est un pré-projet, c’est plusieurs agents IA qui vont m’aider à structurer un vrai projet).

J’ai un peu abusé sur la logique. Ça multiplie les appels aux Agents IA. Les appels GPT mettent entre 45 et 70s en moyenne.

Et il y a en moyenne 30 appels (mais ça peut aller jusqu’à 200 max, si c’est vraiment la merde).

Je suis qu’à l’appel 15 :hap:

j'ai un projet à faire et présenter dans une semaine , j'ai chat gpt 5.2, y a vraiment une grosse diff niveau code avec claude ? Si c'est le cas je prend l'abo à 200e tout de suite

python main.py
[SKIP] Profile already exists in memory.json
[SKIP] Terrains already exists in memory.json
[SKIP] Ideas already exist in memory.json
[LLM] model=gpt-5.2 | effort=high | time=73.2s
[LLM] model=gpt-5.2 | effort=high | time=30.1s
[LLM] model=gpt-5.2 | effort=high | time=71.0s
[LLM] model=gpt-5.2 | effort=high | time=57.1s
[LLM] model=gpt-5.2 | effort=high | time=45.3s
[LLM] model=gpt-5.2 | effort=high | time=48.1s
[LLM] model=gpt-5.2 | effort=high | time=44.0s
[LLM] model=gpt-5.2 | effort=high | time=55.2s
[LLM] model=gpt-5.2 | effort=high | time=41.9s
[LLM] model=gpt-5.2 | effort=high | time=41.7s
[LLM] model=gpt-5.2 | effort=high | time=33.7s
[LLM] model=gpt-5.2 | effort=high | time=22.1s
[LLM] model=gpt-5.2 | effort=high | time=43.4s
[LLM] model=gpt-5.2 | effort=high | time=29.0s
[LLM] model=gpt-5.2 | effort=high | time=51.7s
[LLM] model=gpt-5.2 | effort=high | time=51.2s
[LLM] model=gpt-5.2 | effort=high | time=45.8s
[LLM] model=gpt-5.2 | effort=high | time=45.1s
[LLM] model=gpt-5.2 | effort=high | time=36.1s
[LLM] model=gpt-5.2 | effort=high | time=42.1s
[LLM] model=gpt-5.2 | effort=high | time=40.9s
[LLM] model=gpt-5.2 | effort=high | time=27.5s
[LLM] model=gpt-5.2 | effort=high | time=42.4s
[LLM] model=gpt-5.2 | effort=high | time=31.4s
[LLM] model=gpt-5.2 | effort=high | time=42.7s
[LLM] model=gpt-5.2 | effort=high | time=50.8s
[LLM] model=gpt-5.2 | effort=high | time=44.0s
[LLM] model=gpt-5.2 | effort=high | time=51.2s
[LLM] model=gpt-5.2 | effort=high | time=45.8s
[LLM] model=gpt-5.2 | effort=high | time=52.0s
[LLM] model=gpt-5.2 | effort=high | time=35.4s
[LLM] model=gpt-5.2 | effort=high | time=19.4s
[LLM] model=gpt-5.2 | effort=high | time=36.7s
[LLM] model=gpt-5.2 | effort=high | time=42.4s
[LLM] model=gpt-5.2 | effort=high | time=31.4s
[LLM] model=gpt-5.2 | effort=high | time=42.7s
[LLM] model=gpt-5.2 | effort=high | time=50.8s
[LLM] model=gpt-5.2 | effort=high | time=44.0s
[LLM] model=gpt-5.2 | effort=high | time=51.2s
[LLM] model=gpt-5.2 | effort=high | time=45.8s
[LLM] model=gpt-5.2 | effort=high | time=52.0s
[LLM] model=gpt-5.2 | effort=high | time=35.4s
[LLM] model=gpt-5.2 | effort=high | time=19.4s
[LLM] model=gpt-5.2 | effort=high | time=36.7s
[LLM] model=gpt-5.2 | effort=high | time=42.7s
[LLM] model=gpt-5.2 | effort=high | time=50.8s
[LLM] model=gpt-5.2 | effort=high | time=44.0s
[LLM] model=gpt-5.2 | effort=high | time=51.2s
[LLM] model=gpt-5.2 | effort=high | time=45.8s
[LLM] model=gpt-5.2 | effort=high | time=52.0s
[LLM] model=gpt-5.2 | effort=high | time=35.4s
[LLM] model=gpt-5.2 | effort=high | time=19.4s
[LLM] model=gpt-5.2 | effort=high | time=36.7s
[LLM] model=gpt-5.2 | effort=high | time=50.8s
[LLM] model=gpt-5.2 | effort=high | time=44.0s
[LLM] model=gpt-5.2 | effort=high | time=51.2s
[LLM] model=gpt-5.2 | effort=high | time=45.8s
[LLM] model=gpt-5.2 | effort=high | time=52.0s
[LLM] model=gpt-5.2 | effort=high | time=35.4s
[LLM] model=gpt-5.2 | effort=high | time=19.4s
[LLM] model=gpt-5.2 | effort=high | time=36.7s
[LLM] model=gpt-5.2 | effort=high | time=51.2s
[LLM] model=gpt-5.2 | effort=high | time=45.8s
[LLM] model=gpt-5.2 | effort=high | time=52.0s
[LLM] model=gpt-5.2 | effort=high | time=35.4s
[LLM] model=gpt-5.2 | effort=high | time=19.4s
[LLM] model=gpt-5.2 | effort=high | time=36.7s
[LLM] model=gpt-5.2 | effort=high | time=45.8s
[LLM] model=gpt-5.2 | effort=high | time=52.0s
[LLM] model=gpt-5.2 | effort=high | time=35.4s
[LLM] model=gpt-5.2 | effort=high | time=19.4s
[LLM] model=gpt-5.2 | effort=high | time=36.7s
[LLM] model=gpt-5.2 | effort=high | time=52.0s
[LLM] model=gpt-5.2 | effort=high | time=35.4s
[LLM] model=gpt-5.2 | effort=high | time=19.4s
[LLM] model=gpt-5.2 | effort=high | time=36.7s
[LLM] model=gpt-5.2 | effort=high | time=19.4s
[LLM] model=gpt-5.2 | effort=high | time=36.7s
[LLM] model=gpt-5.2 | effort=high | time=36.7s
[LLM] model=gpt-5.2 | effort=high | time=33.9s
[LLM] model=gpt-5.2 | effort=high | time=33.9s
[LLM] model=gpt-5.2 | effort=high | time=44.1s
[LLM] model=gpt-5.2 | effort=high | time=65.3s
[LLM] model=gpt-5.2 | effort=high | time=48.8s
[LLM] model=gpt-5.2 | effort=high | time=45.0s
[LLM] model=gpt-5.2 | effort=high | time=51.0s
[LLM] model=gpt-5.2 | effort=high | time=46.5s
[LLM] model=gpt-5.2 | effort=high | time=36.3s
[LLM] model=gpt-5.2 | effort=high | time=24.6s
[LLM] model=gpt-5.2 | effort=high | time=37.3s
[LLM] model=gpt-5.2 | effort=high | time=32.9s
[LLM] model=gpt-5.2 | effort=high | time=50.9s
[LLM] model=gpt-5.2 | effort=high | time=50.3s
[LLM] model=gpt-5.2 | effort=high | time=40.0s
[LLM] model=gpt-5.2 | effort=high | time=52.0s
[LLM] model=gpt-5.2 | effort=high | time=46.3s
[LLM] model=gpt-5.2 | effort=high | time=54.2s
[LLM] model=gpt-5.2 | effort=high | time=32.8s
[LLM] model=gpt-5.2 | effort=high | time=19.6s
[LLM] model=gpt-5.2 | effort=high | time=49.2s
[LLM] model=gpt-5.2 | effort=high | time=31.4s
[LLM] model=gpt-5.2 | effort=high | time=42.7s
[LLM] model=gpt-5.2 | effort=high | time=37.0s
[LLM] model=gpt-5.2 | effort=high | time=40.2s
[LLM] model=gpt-5.2 | effort=high | time=60.8s
[LLM] model=gpt-5.2 | effort=high | time=67.0s
[LLM] model=gpt-5.2 | effort=high | time=81.0s

Je vais devenir ZINZIN, j'ai oublié de mettre dans mon code un systeme qui me permet de savoir précisement ou j'en suis.

Du coup j'ai AUCUNE idée de quand mon script aura fini de tourner :peur:

juste ca enchaine les requêtes à GPT Ahi

Le 31 décembre 2025 à 18:32:47 :
j'ai un projet à faire et présenter dans une semaine , j'ai chat gpt 5.2, y a vraiment une grosse diff niveau code avec claude ? Si c'est le cas je prend l'abo à 200e tout de suite

De ce que je lis ici, GPT 5.2 et Claude Opus 4.5 sont les deux modèles en tête.

Mon feeling perso: GPT 5.2 est très pointu sur des questions très architecturales et est probablement meilleur dev "brut". Mais j'ai l'impression que les outils autour de Claude Code sont mieux développé, et donc pour explorer une grosse code base, Claude a l'air devant. Vraiment ça dépend du use case, et surtout, surtout, de la manière dont tu travailles avec l'IA et de tes capacités à penser ton code de manière "high level".

Sympa ton PoC ! Tu penses le sortir quand?

C'était un vieux poc ça, j'ai complètement changé de direction là (même si mon moteur peut toujours gérer des aventures textuelles :hap: )

Actuellement mon objectif est d'utiliser mon moteur comme une mémoire neuro-symbolique pouvant remplacer les RAG classiques.

Et ce que je suis en train d'essayer de faire depuis hier... Créer un agent capable de finir pokemon rouge en s'appuyant sur mon concept de mémoire neuro symbolique :hap:

Le 01 janvier 2026 à 12:39:56 :

Sympa ton PoC ! Tu penses le sortir quand?

C'était un vieux poc ça, j'ai complètement changé de direction là (même si mon moteur peut toujours gérer des aventures textuelles :hap: )

Actuellement mon objectif est d'utiliser mon moteur comme une mémoire neuro-symbolique pouvant remplacer les RAG classiques.

Et ce que je suis en train d'essayer de faire depuis hier... Créer un agent capable de finir pokemon rouge en s'appuyant sur mon concept de mémoire neuro symbolique :hap:

Trop cool comme idée.

Moi ma pipeline IA m’a brisé.

Elle était supposée m’aider à trouver un projet, mais le challenger.

L’agent arbitre est un petit peu trop stricte, car il est passé de 46 idées à… 0.

Données du topic

Auteur
dabhu00
Date de création
25 décembre 2025 à 10:46:05
Nb. messages archivés
223
Nb. messages JVC
215
Voir le topic sur JVC

Afficher uniquement les messages de l'auteur du topic

En ligne sur JvArchive

JvArchive compagnon

Découvrez JvArchive compagnon , l'userscript combattant la censure abusive sur le 18-25 !