Le 29 août 2025 à 23:58:28 :
Le 29 août 2025 à 23:57:39 croupesevere a écrit :
Le 29 août 2025 à 23:56:26 :
Si tu te spécialise en recherche opérationnelle tu as juste à bien maîtriser l'algorithmique, les méthodes de recherche locale (tabou, recuit simulé), les méta-heuristiques (algo génétiques, colonies de fourmis, ...) et la programmation linéaire.et alors, l'ia arrive à te faire un modèle cohérent, t'as essayé ?
Non l'IA ne sera JAMAIS plus performante qu'un algorithme spécifique à une tâche donnée, c'est juste de la pure logique.
non c'est pas logique
Le 29 août 2025 à 23:59:37 SmokingMan a écrit :
Le 29 août 2025 à 23:58:28 :
Le 29 août 2025 à 23:57:39 croupesevere a écrit :
Le 29 août 2025 à 23:56:26 :
Si tu te spécialise en recherche opérationnelle tu as juste à bien maîtriser l'algorithmique, les méthodes de recherche locale (tabou, recuit simulé), les méta-heuristiques (algo génétiques, colonies de fourmis, ...) et la programmation linéaire.et alors, l'ia arrive à te faire un modèle cohérent, t'as essayé ?
Non l'IA ne sera JAMAIS plus performante qu'un algorithme spécifique à une tâche donnée, c'est juste de la pure logique.
2025 et y a encore des devs qui croient qu'on en a quelque chose Ă foutre de la performance
Je te parle de recherche opérationnelle, renseigne toi sur ce que c'est
Le 30 août 2025 à 00:07:18 :
Le 29 août 2025 à 23:59:37 SmokingMan a écrit :
Le 29 août 2025 à 23:58:28 :
Le 29 août 2025 à 23:57:39 croupesevere a écrit :
Le 29 août 2025 à 23:56:26 :
Si tu te spécialise en recherche opérationnelle tu as juste à bien maîtriser l'algorithmique, les méthodes de recherche locale (tabou, recuit simulé), les méta-heuristiques (algo génétiques, colonies de fourmis, ...) et la programmation linéaire.et alors, l'ia arrive à te faire un modèle cohérent, t'as essayé ?
Non l'IA ne sera JAMAIS plus performante qu'un algorithme spécifique à une tâche donnée, c'est juste de la pure logique.
2025 et y a encore des devs qui croient qu'on en a quelque chose Ă foutre de la performance
Je te parle de recherche opérationnelle, renseigne toi sur ce que c'est
Je te reposte la fin de ma réponse précédente:
Après si par performance on entend "pertinence" (genre: quel est le meilleur choix possible entre ceci et cela), si le résultat finale est pour un client lowIQ qui ne fait pas la différence entre un résultat obtenu à partir d'un algo ultra chiadé et du bullshit de LLM bah le bulshit LLM triomphera (et c'est ça qui explique qu'on trouve du LLM partout en ce moment).
Le 30 août 2025 à 00:06:10 :
Le 30 août 2025 à 00:01:03 :
Le 29 août 2025 à 23:59:37 :
Le 29 août 2025 à 23:58:28 :
Le 29 août 2025 à 23:57:39 croupesevere a écrit :
> Le 29 août 2025 à 23:56:26 :
> Si tu te spécialise en recherche opérationnelle tu as juste à bien maîtriser l'algorithmique, les méthodes de recherche locale (tabou, recuit simulé), les méta-heuristiques (algo génétiques, colonies de fourmis, ...) et la programmation linéaire.
et alors, l'ia arrive à te faire un modèle cohérent, t'as essayé ?
Non l'IA ne sera JAMAIS plus performante qu'un algorithme spécifique à une tâche donnée, c'est juste de la pure logique.
2025 et y a encore des devs qui croient qu'on en a quelque chose Ă foutre de la performance
Suffit d'ajouter du CPU ou du caching.
Pourquoi optimiser la complexité temporelle alors qu'il suffit de sortir du cashJ'étais déjà dev dans les années 2000, et à l'époque une grosse partie du boulot consistait à optimiser des requêtes MySQL pour la performance. À partir de 2010 la puissance des serveurs avaient tellement augmenté que plus personne n'en avait rien à péter. Les ORM te pondent du SQL absolument abominable et personne n'en a rien à foutre. Y a bien des secteurs ultra spécifiques où la performance est importante, mais de manière générale tout le monde s'en tape.
Après si par performance on entend "pertinence" (genre: quel est le meilleur choix possible entre ceci et cela), si le résultat finale est pour un client lowIQ qui ne fait pas la différence entre un résultat obtenu à partir d'un algo ultra chiadé et du bullshit de LLM bah le bulshit LLM triomphera (et c'est ça qui explique qu'on trouve du LLM partout en ce moment).
Perso chez mes clients on continue à faire attention aux long queries, à checker leur plan d'exécution et les récrire/placer des index si nécessaire.
Après je te rejoins au niveau des ORM - c'est souvent mal maîtrisé.
Le 30 août 2025 à 00:07:38 SmokingMan a écrit :
Le 30 août 2025 à 00:07:18 :
Le 29 août 2025 à 23:59:37 SmokingMan a écrit :
Le 29 août 2025 à 23:58:28 :
Le 29 août 2025 à 23:57:39 croupesevere a écrit :
> Le 29 août 2025 à 23:56:26 :
> Si tu te spécialise en recherche opérationnelle tu as juste à bien maîtriser l'algorithmique, les méthodes de recherche locale (tabou, recuit simulé), les méta-heuristiques (algo génétiques, colonies de fourmis, ...) et la programmation linéaire.
et alors, l'ia arrive à te faire un modèle cohérent, t'as essayé ?
Non l'IA ne sera JAMAIS plus performante qu'un algorithme spécifique à une tâche donnée, c'est juste de la pure logique.
2025 et y a encore des devs qui croient qu'on en a quelque chose Ă foutre de la performance
Je te parle de recherche opérationnelle, renseigne toi sur ce que c'est
Je te reposte la fin de ma réponse précédente:
Après si par performance on entend "pertinence" (genre: quel est le meilleur choix possible entre ceci et cela), si le résultat finale est pour un client lowIQ qui ne fait pas la différence entre un résultat obtenu à partir d'un algo ultra chiadé et du bullshit de LLM bah le bulshit LLM triomphera (et c'est ça qui explique qu'on trouve du LLM partout en ce moment).
non mais encore une fois ça n'a rien à voir avec ça, la recherche opérationnelle c'est par exemple comment faire un planning cohérent dans un collège tout en minimisant les trous, bonne chance pour faire ça avec de l'IA au vu des milliers de contraintes. Et surtout on cherche à avoir la meilleure solution possible


Le 30 août 2025 à 00:08:08 :
Le 30 août 2025 à 00:06:10 :
Le 30 août 2025 à 00:01:03 :
Le 29 août 2025 à 23:59:37 :
Le 29 août 2025 à 23:58:28 :
> Le 29 août 2025 à 23:57:39 croupesevere a écrit :
> > Le 29 août 2025 à 23:56:26 :
> > Si tu te spécialise en recherche opérationnelle tu as juste à bien maîtriser l'algorithmique, les méthodes de recherche locale (tabou, recuit simulé), les méta-heuristiques (algo génétiques, colonies de fourmis, ...) et la programmation linéaire.
>
> et alors, l'ia arrive à te faire un modèle cohérent, t'as essayé ?
Non l'IA ne sera JAMAIS plus performante qu'un algorithme spécifique à une tâche donnée, c'est juste de la pure logique.
2025 et y a encore des devs qui croient qu'on en a quelque chose Ă foutre de la performance
Suffit d'ajouter du CPU ou du caching.
Pourquoi optimiser la complexité temporelle alors qu'il suffit de sortir du cashJ'étais déjà dev dans les années 2000, et à l'époque une grosse partie du boulot consistait à optimiser des requêtes MySQL pour la performance. À partir de 2010 la puissance des serveurs avaient tellement augmenté que plus personne n'en avait rien à péter. Les ORM te pondent du SQL absolument abominable et personne n'en a rien à foutre. Y a bien des secteurs ultra spécifiques où la performance est importante, mais de manière générale tout le monde s'en tape.
Après si par performance on entend "pertinence" (genre: quel est le meilleur choix possible entre ceci et cela), si le résultat finale est pour un client lowIQ qui ne fait pas la différence entre un résultat obtenu à partir d'un algo ultra chiadé et du bullshit de LLM bah le bulshit LLM triomphera (et c'est ça qui explique qu'on trouve du LLM partout en ce moment).
Perso chez mes clients on continue à faire attention aux long queries, à checker leur plan d'exécution et les récrire/placer des index si nécessaire.
Après je te rejoins au niveau des ORM - c'est souvent mal maîtrisé.
oui les grosses requêtes complexes c'est toujours à la mano. D'ailleurs là dessus les LLM sont hyper performantes, pour te générer des grosses requêtes, les débuguer, les optimiser, c'est vraiment extrêmement utile (ça ne remplace pas le dev pour autant, mais ça soulage, et ça te transforme un dev avec un niveau moyen en SQL en un bon dev SQL).
Le 30 août 2025 à 00:09:12 :
Le 30 août 2025 à 00:07:38 SmokingMan a écrit :
Le 30 août 2025 à 00:07:18 :
Le 29 août 2025 à 23:59:37 SmokingMan a écrit :
Le 29 août 2025 à 23:58:28 :
> Le 29 août 2025 à 23:57:39 croupesevere a écrit :
> > Le 29 août 2025 à 23:56:26 :
> > Si tu te spécialise en recherche opérationnelle tu as juste à bien maîtriser l'algorithmique, les méthodes de recherche locale (tabou, recuit simulé), les méta-heuristiques (algo génétiques, colonies de fourmis, ...) et la programmation linéaire.
>
> et alors, l'ia arrive à te faire un modèle cohérent, t'as essayé ?
Non l'IA ne sera JAMAIS plus performante qu'un algorithme spécifique à une tâche donnée, c'est juste de la pure logique.
2025 et y a encore des devs qui croient qu'on en a quelque chose Ă foutre de la performance
Je te parle de recherche opérationnelle, renseigne toi sur ce que c'est
Je te reposte la fin de ma réponse précédente:
Après si par performance on entend "pertinence" (genre: quel est le meilleur choix possible entre ceci et cela), si le résultat finale est pour un client lowIQ qui ne fait pas la différence entre un résultat obtenu à partir d'un algo ultra chiadé et du bullshit de LLM bah le bulshit LLM triomphera (et c'est ça qui explique qu'on trouve du LLM partout en ce moment).
non mais encore une fois ça n'a rien à voir avec ça, la recherche opérationnelle c'est par exemple comment faire un planning cohérent dans un collège tout en minimisant les trous, bonne chance pour faire ça avec de l'IA au vu des milliers de contraintes. Et surtout on cherche à avoir la meilleure solution possible
Donc je vais répéter la fin de mon message avec ton exemple:
Après si par performance on entend "pertinence" (genre: quel est le meilleur choix possible entre 2 plannings de profs), si le résultat finale est pour un client lowIQ (genre: un prof) qui ne fait pas la différence entre un résultat obtenu à partir d'un algo ultra chiadé (genre un planning ultra cohérent avec un minium de trou) et du bullshit de LLM (genre un planing un peu moins cohérent avec un peu plus de trou) bah le bulshit LLM triomphera. C'est ça qui explique qu'on aura bientôt une stratup à la con qui utilisera un LLM pour faire des plannings pour les profs (si c'est ton secteur, je t'invite à le faire et à devenir riche).
Le 30 août 2025 à 00:13:14 SmokingMan a écrit :
Le 30 août 2025 à 00:09:12 :
Le 30 août 2025 à 00:07:38 SmokingMan a écrit :
Le 30 août 2025 à 00:07:18 :
Le 29 août 2025 à 23:59:37 SmokingMan a écrit :
> Le 29 août 2025 à 23:58:28 :
> > Le 29 août 2025 à 23:57:39 croupesevere a écrit :
> > > Le 29 août 2025 à 23:56:26 :
> > > Si tu te spécialise en recherche opérationnelle tu as juste à bien maîtriser l'algorithmique, les méthodes de recherche locale (tabou, recuit simulé), les méta-heuristiques (algo génétiques, colonies de fourmis, ...) et la programmation linéaire.
> >
> > et alors, l'ia arrive à te faire un modèle cohérent, t'as essayé ?
>
> Non l'IA ne sera JAMAIS plus performante qu'un algorithme spécifique à une tâche donnée, c'est juste de la pure logique.
2025 et y a encore des devs qui croient qu'on en a quelque chose Ă foutre de la performance
Je te parle de recherche opérationnelle, renseigne toi sur ce que c'est
Je te reposte la fin de ma réponse précédente:
Après si par performance on entend "pertinence" (genre: quel est le meilleur choix possible entre ceci et cela), si le résultat finale est pour un client lowIQ qui ne fait pas la différence entre un résultat obtenu à partir d'un algo ultra chiadé et du bullshit de LLM bah le bulshit LLM triomphera (et c'est ça qui explique qu'on trouve du LLM partout en ce moment).
non mais encore une fois ça n'a rien à voir avec ça, la recherche opérationnelle c'est par exemple comment faire un planning cohérent dans un collège tout en minimisant les trous, bonne chance pour faire ça avec de l'IA au vu des milliers de contraintes. Et surtout on cherche à avoir la meilleure solution possible
Donc je vais répéter la fin de mon message avec ton exemple:
Après si par performance on entend "pertinence" (genre: quel est le meilleur choix possible entre 2 plannings de profs), si le résultat finale est pour un client lowIQ (genre: un prof) qui ne fait pas la différence entre un résultat obtenu à partir d'un algo ultra chiadé (genre un planning ultra cohérent avec un minium de trou) et du bullshit de LLM (genre un planing un peu moins cohérent avec un peu plus de trou) bah le bulshit LLM triomphera. C'est ça qui explique qu'on aura bientôt une stratup à la con qui utilisera un LLM pour faire des plannings pour les profs (si c'est ton secteur, je t'invite à le faire et à devenir riche).
Malheureusement les entreprises font tourner des solveurs à plusieurs milliers d'€ par licence ( https://www.gurobi.com/ ) pour optimiser des tournées de véhicules (chronopost, toutes les entreprises de livraison, les entreprises portuaires style CMA CGM) pour réduire les frais liés au transport, c'est pas un LLM qui fera ça, car la solution d'un LLM sera à des années lumière de celle d'un vrai solveur qui tourne pendant des heures et des heures.
Le 30 août 2025 à 00:17:07 :
Le 30 août 2025 à 00:13:14 SmokingMan a écrit :
Le 30 août 2025 à 00:09:12 :
Le 30 août 2025 à 00:07:38 SmokingMan a écrit :
Le 30 août 2025 à 00:07:18 :
> Le 29 août 2025 à 23:59:37 SmokingMan a écrit :
> > Le 29 août 2025 à 23:58:28 :
> > > Le 29 août 2025 à 23:57:39 croupesevere a écrit :
> > > > Le 29 août 2025 à 23:56:26 :
> > > > Si tu te spécialise en recherche opérationnelle tu as juste à bien maîtriser l'algorithmique, les méthodes de recherche locale (tabou, recuit simulé), les méta-heuristiques (algo génétiques, colonies de fourmis, ...) et la programmation linéaire.
> > >
> > > et alors, l'ia arrive à te faire un modèle cohérent, t'as essayé ?
> >
> > Non l'IA ne sera JAMAIS plus performante qu'un algorithme spécifique à une tâche donnée, c'est juste de la pure logique.
>
> 2025 et y a encore des devs qui croient qu'on en a quelque chose Ă foutre de la performance
Je te parle de recherche opérationnelle, renseigne toi sur ce que c'est
Je te reposte la fin de ma réponse précédente:
Après si par performance on entend "pertinence" (genre: quel est le meilleur choix possible entre ceci et cela), si le résultat finale est pour un client lowIQ qui ne fait pas la différence entre un résultat obtenu à partir d'un algo ultra chiadé et du bullshit de LLM bah le bulshit LLM triomphera (et c'est ça qui explique qu'on trouve du LLM partout en ce moment).
non mais encore une fois ça n'a rien à voir avec ça, la recherche opérationnelle c'est par exemple comment faire un planning cohérent dans un collège tout en minimisant les trous, bonne chance pour faire ça avec de l'IA au vu des milliers de contraintes. Et surtout on cherche à avoir la meilleure solution possible
Donc je vais répéter la fin de mon message avec ton exemple:
Après si par performance on entend "pertinence" (genre: quel est le meilleur choix possible entre 2 plannings de profs), si le résultat finale est pour un client lowIQ (genre: un prof) qui ne fait pas la différence entre un résultat obtenu à partir d'un algo ultra chiadé (genre un planning ultra cohérent avec un minium de trou) et du bullshit de LLM (genre un planing un peu moins cohérent avec un peu plus de trou) bah le bulshit LLM triomphera. C'est ça qui explique qu'on aura bientôt une stratup à la con qui utilisera un LLM pour faire des plannings pour les profs (si c'est ton secteur, je t'invite à le faire et à devenir riche).
Malheureusement les entreprises font tourner des solveurs à plusieurs milliers d'€ par licence ( https://www.gurobi.com/ ) pour optimiser des tournées de véhicules (chronopost, toutes les entreprises de livraison, les entreprises portuaires style CMA CGM) pour réduire les frais liés au transport, c'est pas un LLM qui fera ça, car la solution d'un LLM sera à des années lumière de celle d'un vrai solveur qui tourne pendant des heures et des heures.
là c'est différent: le client n'est pas Low IQ, et il y a énormément d'argent en jeux. Entre 2 plans de livraisons différents, il va y avoir des millions d'euros de différence.
Croire que l ia actuel rivalise avec un dev senior 
Chatgpt il me faut mĂŞme pas 5min pour lui faire une boucle sur lui mĂŞme
La dernière fois je lui demande de me filer une idée pour passer un state dans une lib foireuse openid en sachant que la lib ne le gère pas
Bien sur premier essai il dis de faire exactement ça
Je le reprends il me sort une autre solution qui repose sur le mĂŞme truc
Je le reprends encore et il me répond encore la solution 1 au lieu de me dire que c'est impossible
C'est simple même en lui disant que ça ne marche pas il continue dans sa connerie au lieu d'admettre ses erreurs 
Qu'est-ce tu veut coder du code de qualité avec ça ?

Afficher uniquement les messages de l'auteur du topic