Topic de DevBrise :

🔴[DEV] Se SPÉCIALISER pour pas être REMPLACÉ par l'IA

Le 29 août 2025 à 23:58:28 :

Le 29 août 2025 à 23:57:39 croupesevere a écrit :

Le 29 août 2025 à 23:56:26 :
Si tu te spécialise en recherche opérationnelle tu as juste à bien maîtriser l'algorithmique, les méthodes de recherche locale (tabou, recuit simulé), les méta-heuristiques (algo génétiques, colonies de fourmis, ...) et la programmation linéaire.

et alors, l'ia arrive à te faire un modèle cohérent, t'as essayé ?

Non l'IA ne sera JAMAIS plus performante qu'un algorithme spécifique à une tâche donnée, c'est juste de la pure logique.

non c'est pas logique

Le 29 août 2025 à 23:59:37 SmokingMan a écrit :

Le 29 août 2025 à 23:58:28 :

Le 29 août 2025 à 23:57:39 croupesevere a écrit :

Le 29 août 2025 à 23:56:26 :
Si tu te spécialise en recherche opérationnelle tu as juste à bien maîtriser l'algorithmique, les méthodes de recherche locale (tabou, recuit simulé), les méta-heuristiques (algo génétiques, colonies de fourmis, ...) et la programmation linéaire.

et alors, l'ia arrive à te faire un modèle cohérent, t'as essayé ?

Non l'IA ne sera JAMAIS plus performante qu'un algorithme spécifique à une tâche donnée, c'est juste de la pure logique.

2025 et y a encore des devs qui croient qu'on en a quelque chose Ă  foutre de la performance :rire2:

Je te parle de recherche opérationnelle, renseigne toi sur ce que c'est

Le 30 août 2025 à 00:07:18 :

Le 29 août 2025 à 23:59:37 SmokingMan a écrit :

Le 29 août 2025 à 23:58:28 :

Le 29 août 2025 à 23:57:39 croupesevere a écrit :

Le 29 août 2025 à 23:56:26 :
Si tu te spécialise en recherche opérationnelle tu as juste à bien maîtriser l'algorithmique, les méthodes de recherche locale (tabou, recuit simulé), les méta-heuristiques (algo génétiques, colonies de fourmis, ...) et la programmation linéaire.

et alors, l'ia arrive à te faire un modèle cohérent, t'as essayé ?

Non l'IA ne sera JAMAIS plus performante qu'un algorithme spécifique à une tâche donnée, c'est juste de la pure logique.

2025 et y a encore des devs qui croient qu'on en a quelque chose Ă  foutre de la performance :rire2:

Je te parle de recherche opérationnelle, renseigne toi sur ce que c'est

Je te reposte la fin de ma réponse précédente:

Après si par performance on entend "pertinence" (genre: quel est le meilleur choix possible entre ceci et cela), si le résultat finale est pour un client lowIQ qui ne fait pas la différence entre un résultat obtenu à partir d'un algo ultra chiadé et du bullshit de LLM bah le bulshit LLM triomphera (et c'est ça qui explique qu'on trouve du LLM partout en ce moment).

Le 30 août 2025 à 00:06:10 :

Le 30 août 2025 à 00:01:03 :

Le 29 août 2025 à 23:59:37 :

Le 29 août 2025 à 23:58:28 :

Le 29 août 2025 à 23:57:39 croupesevere a écrit :

> Le 29 août 2025 à 23:56:26 :

> Si tu te spécialise en recherche opérationnelle tu as juste à bien maîtriser l'algorithmique, les méthodes de recherche locale (tabou, recuit simulé), les méta-heuristiques (algo génétiques, colonies de fourmis, ...) et la programmation linéaire.

et alors, l'ia arrive à te faire un modèle cohérent, t'as essayé ?

Non l'IA ne sera JAMAIS plus performante qu'un algorithme spécifique à une tâche donnée, c'est juste de la pure logique.

2025 et y a encore des devs qui croient qu'on en a quelque chose Ă  foutre de la performance :rire2:

Suffit d'ajouter du CPU ou du caching.
Pourquoi optimiser la complexité temporelle alors qu'il suffit de sortir du cash :)

J'étais déjà dev dans les années 2000, et à l'époque une grosse partie du boulot consistait à optimiser des requêtes MySQL pour la performance. À partir de 2010 la puissance des serveurs avaient tellement augmenté que plus personne n'en avait rien à péter. Les ORM te pondent du SQL absolument abominable et personne n'en a rien à foutre. Y a bien des secteurs ultra spécifiques où la performance est importante, mais de manière générale tout le monde s'en tape.

Après si par performance on entend "pertinence" (genre: quel est le meilleur choix possible entre ceci et cela), si le résultat finale est pour un client lowIQ qui ne fait pas la différence entre un résultat obtenu à partir d'un algo ultra chiadé et du bullshit de LLM bah le bulshit LLM triomphera (et c'est ça qui explique qu'on trouve du LLM partout en ce moment).

Perso chez mes clients on continue à faire attention aux long queries, à checker leur plan d'exécution et les récrire/placer des index si nécessaire.

Après je te rejoins au niveau des ORM - c'est souvent mal maîtrisé.

Le 30 août 2025 à 00:07:38 SmokingMan a écrit :

Le 30 août 2025 à 00:07:18 :

Le 29 août 2025 à 23:59:37 SmokingMan a écrit :

Le 29 août 2025 à 23:58:28 :

Le 29 août 2025 à 23:57:39 croupesevere a écrit :

> Le 29 août 2025 à 23:56:26 :

> Si tu te spécialise en recherche opérationnelle tu as juste à bien maîtriser l'algorithmique, les méthodes de recherche locale (tabou, recuit simulé), les méta-heuristiques (algo génétiques, colonies de fourmis, ...) et la programmation linéaire.

et alors, l'ia arrive à te faire un modèle cohérent, t'as essayé ?

Non l'IA ne sera JAMAIS plus performante qu'un algorithme spécifique à une tâche donnée, c'est juste de la pure logique.

2025 et y a encore des devs qui croient qu'on en a quelque chose Ă  foutre de la performance :rire2:

Je te parle de recherche opérationnelle, renseigne toi sur ce que c'est

Je te reposte la fin de ma réponse précédente:

Après si par performance on entend "pertinence" (genre: quel est le meilleur choix possible entre ceci et cela), si le résultat finale est pour un client lowIQ qui ne fait pas la différence entre un résultat obtenu à partir d'un algo ultra chiadé et du bullshit de LLM bah le bulshit LLM triomphera (et c'est ça qui explique qu'on trouve du LLM partout en ce moment).

non mais encore une fois ça n'a rien à voir avec ça, la recherche opérationnelle c'est par exemple comment faire un planning cohérent dans un collège tout en minimisant les trous, bonne chance pour faire ça avec de l'IA au vu des milliers de contraintes. Et surtout on cherche à avoir la meilleure solution possible

Go cloud, personne ne peut remplacer ça :ok:
Comme les cloud provider évoluent tout le temps, l'IA ne peut pas suivre :ok:

Le 30 août 2025 à 00:08:08 :

Le 30 août 2025 à 00:06:10 :

Le 30 août 2025 à 00:01:03 :

Le 29 août 2025 à 23:59:37 :

Le 29 août 2025 à 23:58:28 :

> Le 29 août 2025 à 23:57:39 croupesevere a écrit :

> > Le 29 août 2025 à 23:56:26 :

> > Si tu te spécialise en recherche opérationnelle tu as juste à bien maîtriser l'algorithmique, les méthodes de recherche locale (tabou, recuit simulé), les méta-heuristiques (algo génétiques, colonies de fourmis, ...) et la programmation linéaire.

>

> et alors, l'ia arrive à te faire un modèle cohérent, t'as essayé ?

Non l'IA ne sera JAMAIS plus performante qu'un algorithme spécifique à une tâche donnée, c'est juste de la pure logique.

2025 et y a encore des devs qui croient qu'on en a quelque chose Ă  foutre de la performance :rire2:

Suffit d'ajouter du CPU ou du caching.
Pourquoi optimiser la complexité temporelle alors qu'il suffit de sortir du cash :)

J'étais déjà dev dans les années 2000, et à l'époque une grosse partie du boulot consistait à optimiser des requêtes MySQL pour la performance. À partir de 2010 la puissance des serveurs avaient tellement augmenté que plus personne n'en avait rien à péter. Les ORM te pondent du SQL absolument abominable et personne n'en a rien à foutre. Y a bien des secteurs ultra spécifiques où la performance est importante, mais de manière générale tout le monde s'en tape.

Après si par performance on entend "pertinence" (genre: quel est le meilleur choix possible entre ceci et cela), si le résultat finale est pour un client lowIQ qui ne fait pas la différence entre un résultat obtenu à partir d'un algo ultra chiadé et du bullshit de LLM bah le bulshit LLM triomphera (et c'est ça qui explique qu'on trouve du LLM partout en ce moment).

Perso chez mes clients on continue à faire attention aux long queries, à checker leur plan d'exécution et les récrire/placer des index si nécessaire.

Après je te rejoins au niveau des ORM - c'est souvent mal maîtrisé.

oui les grosses requêtes complexes c'est toujours à la mano. D'ailleurs là dessus les LLM sont hyper performantes, pour te générer des grosses requêtes, les débuguer, les optimiser, c'est vraiment extrêmement utile (ça ne remplace pas le dev pour autant, mais ça soulage, et ça te transforme un dev avec un niveau moyen en SQL en un bon dev SQL).

Dans l'IA directement. La data

Le 30 août 2025 à 00:09:12 :

Le 30 août 2025 à 00:07:38 SmokingMan a écrit :

Le 30 août 2025 à 00:07:18 :

Le 29 août 2025 à 23:59:37 SmokingMan a écrit :

Le 29 août 2025 à 23:58:28 :

> Le 29 août 2025 à 23:57:39 croupesevere a écrit :

> > Le 29 août 2025 à 23:56:26 :

> > Si tu te spécialise en recherche opérationnelle tu as juste à bien maîtriser l'algorithmique, les méthodes de recherche locale (tabou, recuit simulé), les méta-heuristiques (algo génétiques, colonies de fourmis, ...) et la programmation linéaire.

>

> et alors, l'ia arrive à te faire un modèle cohérent, t'as essayé ?

Non l'IA ne sera JAMAIS plus performante qu'un algorithme spécifique à une tâche donnée, c'est juste de la pure logique.

2025 et y a encore des devs qui croient qu'on en a quelque chose Ă  foutre de la performance :rire2:

Je te parle de recherche opérationnelle, renseigne toi sur ce que c'est

Je te reposte la fin de ma réponse précédente:

Après si par performance on entend "pertinence" (genre: quel est le meilleur choix possible entre ceci et cela), si le résultat finale est pour un client lowIQ qui ne fait pas la différence entre un résultat obtenu à partir d'un algo ultra chiadé et du bullshit de LLM bah le bulshit LLM triomphera (et c'est ça qui explique qu'on trouve du LLM partout en ce moment).

non mais encore une fois ça n'a rien à voir avec ça, la recherche opérationnelle c'est par exemple comment faire un planning cohérent dans un collège tout en minimisant les trous, bonne chance pour faire ça avec de l'IA au vu des milliers de contraintes. Et surtout on cherche à avoir la meilleure solution possible

Donc je vais répéter la fin de mon message avec ton exemple:

Après si par performance on entend "pertinence" (genre: quel est le meilleur choix possible entre 2 plannings de profs), si le résultat finale est pour un client lowIQ (genre: un prof) qui ne fait pas la différence entre un résultat obtenu à partir d'un algo ultra chiadé (genre un planning ultra cohérent avec un minium de trou) et du bullshit de LLM (genre un planing un peu moins cohérent avec un peu plus de trou) bah le bulshit LLM triomphera. C'est ça qui explique qu'on aura bientôt une stratup à la con qui utilisera un LLM pour faire des plannings pour les profs (si c'est ton secteur, je t'invite à le faire et à devenir riche).

Le 30 août 2025 à 00:13:14 SmokingMan a écrit :

Le 30 août 2025 à 00:09:12 :

Le 30 août 2025 à 00:07:38 SmokingMan a écrit :

Le 30 août 2025 à 00:07:18 :

Le 29 août 2025 à 23:59:37 SmokingMan a écrit :

> Le 29 août 2025 à 23:58:28 :

> > Le 29 août 2025 à 23:57:39 croupesevere a écrit :

> > > Le 29 août 2025 à 23:56:26 :

> > > Si tu te spécialise en recherche opérationnelle tu as juste à bien maîtriser l'algorithmique, les méthodes de recherche locale (tabou, recuit simulé), les méta-heuristiques (algo génétiques, colonies de fourmis, ...) et la programmation linéaire.

> >

> > et alors, l'ia arrive à te faire un modèle cohérent, t'as essayé ?

>

> Non l'IA ne sera JAMAIS plus performante qu'un algorithme spécifique à une tâche donnée, c'est juste de la pure logique.

2025 et y a encore des devs qui croient qu'on en a quelque chose Ă  foutre de la performance :rire2:

Je te parle de recherche opérationnelle, renseigne toi sur ce que c'est

Je te reposte la fin de ma réponse précédente:

Après si par performance on entend "pertinence" (genre: quel est le meilleur choix possible entre ceci et cela), si le résultat finale est pour un client lowIQ qui ne fait pas la différence entre un résultat obtenu à partir d'un algo ultra chiadé et du bullshit de LLM bah le bulshit LLM triomphera (et c'est ça qui explique qu'on trouve du LLM partout en ce moment).

non mais encore une fois ça n'a rien à voir avec ça, la recherche opérationnelle c'est par exemple comment faire un planning cohérent dans un collège tout en minimisant les trous, bonne chance pour faire ça avec de l'IA au vu des milliers de contraintes. Et surtout on cherche à avoir la meilleure solution possible

Donc je vais répéter la fin de mon message avec ton exemple:

Après si par performance on entend "pertinence" (genre: quel est le meilleur choix possible entre 2 plannings de profs), si le résultat finale est pour un client lowIQ (genre: un prof) qui ne fait pas la différence entre un résultat obtenu à partir d'un algo ultra chiadé (genre un planning ultra cohérent avec un minium de trou) et du bullshit de LLM (genre un planing un peu moins cohérent avec un peu plus de trou) bah le bulshit LLM triomphera. C'est ça qui explique qu'on aura bientôt une stratup à la con qui utilisera un LLM pour faire des plannings pour les profs (si c'est ton secteur, je t'invite à le faire et à devenir riche).

Malheureusement les entreprises font tourner des solveurs à plusieurs milliers d'€ par licence ( https://www.gurobi.com/ ) pour optimiser des tournées de véhicules (chronopost, toutes les entreprises de livraison, les entreprises portuaires style CMA CGM) pour réduire les frais liés au transport, c'est pas un LLM qui fera ça, car la solution d'un LLM sera à des années lumière de celle d'un vrai solveur qui tourne pendant des heures et des heures.

Le 30 août 2025 à 00:17:07 :

Le 30 août 2025 à 00:13:14 SmokingMan a écrit :

Le 30 août 2025 à 00:09:12 :

Le 30 août 2025 à 00:07:38 SmokingMan a écrit :

Le 30 août 2025 à 00:07:18 :

> Le 29 août 2025 à 23:59:37 SmokingMan a écrit :

> > Le 29 août 2025 à 23:58:28 :

> > > Le 29 août 2025 à 23:57:39 croupesevere a écrit :

> > > > Le 29 août 2025 à 23:56:26 :

> > > > Si tu te spécialise en recherche opérationnelle tu as juste à bien maîtriser l'algorithmique, les méthodes de recherche locale (tabou, recuit simulé), les méta-heuristiques (algo génétiques, colonies de fourmis, ...) et la programmation linéaire.

> > >

> > > et alors, l'ia arrive à te faire un modèle cohérent, t'as essayé ?

> >

> > Non l'IA ne sera JAMAIS plus performante qu'un algorithme spécifique à une tâche donnée, c'est juste de la pure logique.

>

> 2025 et y a encore des devs qui croient qu'on en a quelque chose Ă  foutre de la performance :rire2:

Je te parle de recherche opérationnelle, renseigne toi sur ce que c'est

Je te reposte la fin de ma réponse précédente:

Après si par performance on entend "pertinence" (genre: quel est le meilleur choix possible entre ceci et cela), si le résultat finale est pour un client lowIQ qui ne fait pas la différence entre un résultat obtenu à partir d'un algo ultra chiadé et du bullshit de LLM bah le bulshit LLM triomphera (et c'est ça qui explique qu'on trouve du LLM partout en ce moment).

non mais encore une fois ça n'a rien à voir avec ça, la recherche opérationnelle c'est par exemple comment faire un planning cohérent dans un collège tout en minimisant les trous, bonne chance pour faire ça avec de l'IA au vu des milliers de contraintes. Et surtout on cherche à avoir la meilleure solution possible

Donc je vais répéter la fin de mon message avec ton exemple:

Après si par performance on entend "pertinence" (genre: quel est le meilleur choix possible entre 2 plannings de profs), si le résultat finale est pour un client lowIQ (genre: un prof) qui ne fait pas la différence entre un résultat obtenu à partir d'un algo ultra chiadé (genre un planning ultra cohérent avec un minium de trou) et du bullshit de LLM (genre un planing un peu moins cohérent avec un peu plus de trou) bah le bulshit LLM triomphera. C'est ça qui explique qu'on aura bientôt une stratup à la con qui utilisera un LLM pour faire des plannings pour les profs (si c'est ton secteur, je t'invite à le faire et à devenir riche).

Malheureusement les entreprises font tourner des solveurs à plusieurs milliers d'€ par licence ( https://www.gurobi.com/ ) pour optimiser des tournées de véhicules (chronopost, toutes les entreprises de livraison, les entreprises portuaires style CMA CGM) pour réduire les frais liés au transport, c'est pas un LLM qui fera ça, car la solution d'un LLM sera à des années lumière de celle d'un vrai solveur qui tourne pendant des heures et des heures.

là c'est différent: le client n'est pas Low IQ, et il y a énormément d'argent en jeux. Entre 2 plans de livraisons différents, il va y avoir des millions d'euros de différence.

Croire que l ia actuel rivalise avec un dev senior :rire:
Chatgpt il me faut mĂŞme pas 5min pour lui faire une boucle sur lui mĂŞme

La dernière fois je lui demande de me filer une idée pour passer un state dans une lib foireuse openid en sachant que la lib ne le gère pas
Bien sur premier essai il dis de faire exactement ça
Je le reprends il me sort une autre solution qui repose sur le mĂŞme truc
Je le reprends encore et il me répond encore la solution 1 au lieu de me dire que c'est impossible
C'est simple même en lui disant que ça ne marche pas il continue dans sa connerie au lieu d'admettre ses erreurs :rire:

Qu'est-ce tu veut coder du code de qualité avec ça ?

Tout ce qui touche au test, le code IA faut des testeurs c'est sûr
perso j'ai un niveau correct mais je vois que je commence à être dépassé par les outils.
Pas par le code, je suis senior dev, mais les outils évoluent trop vite :hap:

Données du topic

Auteur
DevBrise
Date de création
29 août 2025 à 22:52:22
Nb. messages archivés
55
Nb. messages JVC
55
Voir le topic sur JVC

Afficher uniquement les messages de l'auteur du topic

En ligne sur JvArchive
JvArchive compagnon
Découvrez JvArchive compagnon, l'userscript combattant la censure abusive sur le 18-25 !