Le 08 mars 2026 à 11:55:27 :
Le 08 mars 2026 à 11:51:38 :
Le 08 mars 2026 à 11:42:05 :
Il faut surtout de la VRAM. Un bon deal ce sont les macs car ils ont de la mémoire unifiée( mais ça ne va pas coller avec ton envie de jeux vidéo). Un mac avec 32gb de mémoire unifiée permet de faire tourner des petits modèles sympas de Qwen etc.
En nvidia sur PC, je dirais pour débuter RTX 5060 TI 16gb. Et si on a plus d'argent la RTX 5090 avec ses 32Gb.
Ensuite il faut rester réaliste, on ne peut faire tourner que des petits modèles ( donc bien moins intelligents pour les raisonnements ) et c'est très lent à construire la réponse par rapport à chatGPT, Claude etc.
Bref, il y a beaucoup de scénarios où c'est en réalité plus intéressant de consommer les API des grands modèles.
De la merde la 5060ti, je le sais j'en ai. Saif que j'ai payé les miennes 350e, avant la hausse des prix qui est une enculade.
Le mieux si l'op a déjà un PC c'est de partir sur de la 3090 d'occasion. 2x3090 c'est environs 2x650€ sur leboncoin et ça permet de faire une machine à 48Go de VRAM là ça passe dans le budget. Si le boitier ne permet pas de mettre 2x3090 (grosse carte c'est un putain de veau et ça chauffe) alors là 3090 + 4070ti ça donne 40Go de VRAM c'est pas mal.
T'as quoi comme config actuellement l'op?
j'ai rien
![]()
enfin j'ai un thinkpad à la con que j'utilise pour bosser, mais je travaille sur du cloud donc j'ai pas besoin d'un gros truc.en gros pour vous la faire courte je suis un ingé devops surtout spécialisé système linux, conteneur et cloud et j'aimerais me former à l'IA où je n'y connais pas grand chose d'autre que chat gpt, pour peut être ensuite dérrière faire une petite activité subsidiaire dans le futur si ça marche bien après m'être former.
Tu te prends un abonnement Claude Pro pour te former.
Le 08 mars 2026 à 11:56:48 :
Le 08 mars 2026 à 11:51:38 :
Le 08 mars 2026 à 11:42:05 :
Il faut surtout de la VRAM. Un bon deal ce sont les macs car ils ont de la mémoire unifiée( mais ça ne va pas coller avec ton envie de jeux vidéo). Un mac avec 32gb de mémoire unifiée permet de faire tourner des petits modèles sympas de Qwen etc.
En nvidia sur PC, je dirais pour débuter RTX 5060 TI 16gb. Et si on a plus d'argent la RTX 5090 avec ses 32Gb.
Ensuite il faut rester réaliste, on ne peut faire tourner que des petits modèles ( donc bien moins intelligents pour les raisonnements ) et c'est très lent à construire la réponse par rapport à chatGPT, Claude etc.
Bref, il y a beaucoup de scénarios où c'est en réalité plus intéressant de consommer les API des grands modèles.
De la merde la 5060ti, je le sais j'en ai. Sauf que j'ai payé les miennes 350e, avant la hausse des prix qui est une enculade.
Le mieux si l'op a déjà un PC c'est de partir sur de la 3090 d'occasion. 2x3090 c'est environs 2x650€ sur leboncoin et ça permet de faire une machine à 48Go de VRAM là ça passe dans le budget. Si le boitier ne permet pas de mettre 2x3090 (grosse carte c'est un putain de veau et ça chauffe) alors là 3090 + 4070ti ça donne 40Go de VRAM c'est pas mal.
T'as quoi comme config actuellement l'op?
T'es sûr que tu n'as pas acheté la 8Gb pour 350 ?
Après ça reste l'entrée de gamme bien sûr, mais la génération d'image et run des petits modèles fonctionneront. Bref pour simplement découvrir comment run l'IA en local à moindre frais. Et il pourra faire du gaming en 1080p dessus.
La 3090, ça nécessite de l'occasion, toujours dangereux si on n'est pas calé pour repérer les cartes qui ont turbiné à fabriquer de la crypto ou de l'ia 24h/24, et vont bientôt lâcher.
De toute façon il fera jamais tenir deux 3090 dans le budget. En cherchant bien t'en as quand même pour 1600 balles pour les GPU, tu rajotues la RAM (même 32 Go), l'alimentation, le boitier, l'alim vu la consommation... 
pour me mettre à faire notament de L'IA dont de l'IA générative.

De l'ia générative d'une génération générative génératrice de générateur générative ?
Le 08 mars 2026 à 11:57:02 :
Le 08 mars 2026 à 11:55:27 :
Le 08 mars 2026 à 11:51:38 :
Le 08 mars 2026 à 11:42:05 :
Il faut surtout de la VRAM. Un bon deal ce sont les macs car ils ont de la mémoire unifiée( mais ça ne va pas coller avec ton envie de jeux vidéo). Un mac avec 32gb de mémoire unifiée permet de faire tourner des petits modèles sympas de Qwen etc.
En nvidia sur PC, je dirais pour débuter RTX 5060 TI 16gb. Et si on a plus d'argent la RTX 5090 avec ses 32Gb.
Ensuite il faut rester réaliste, on ne peut faire tourner que des petits modèles ( donc bien moins intelligents pour les raisonnements ) et c'est très lent à construire la réponse par rapport à chatGPT, Claude etc.
Bref, il y a beaucoup de scénarios où c'est en réalité plus intéressant de consommer les API des grands modèles.
De la merde la 5060ti, je le sais j'en ai. Saif que j'ai payé les miennes 350e, avant la hausse des prix qui est une enculade.
Le mieux si l'op a déjà un PC c'est de partir sur de la 3090 d'occasion. 2x3090 c'est environs 2x650€ sur leboncoin et ça permet de faire une machine à 48Go de VRAM là ça passe dans le budget. Si le boitier ne permet pas de mettre 2x3090 (grosse carte c'est un putain de veau et ça chauffe) alors là 3090 + 4070ti ça donne 40Go de VRAM c'est pas mal.
T'as quoi comme config actuellement l'op?
j'ai rien
![]()
enfin j'ai un thinkpad à la con que j'utilise pour bosser, mais je travaille sur du cloud donc j'ai pas besoin d'un gros truc.en gros pour vous la faire courte je suis un ingé devops surtout spécialisé système linux, conteneur et cloud et j'aimerais me former à l'IA où je n'y connais pas grand chose d'autre que chat gpt, pour peut être ensuite dérrière faire une petite activité subsidiaire dans le futur si ça marche bien après m'être former.
Tu te prends un abonnement Claude Pro pour te former.
C'est bien meilleurs que chat gpt ?
je t'avoue je suis rester bloquer sur celui ci depuis ses débuts, j'ai pas trop regarder ce qu'il se faisait ailleurs.
Il fait le taff pour l'instant dans ce que je l'ai utilisé mais je suis pas aller super loins dans le code.
je l'utilise surtout pour de l'automatisation a travers mes tache d'administration classique au boulot donc pas des trucs hyper technique, surtout du python et du yaml pour ansible/kubernetes, et ça suffit largement.
Le 08 mars 2026 à 11:55:27 :
Le 08 mars 2026 à 11:51:38 :
Le 08 mars 2026 à 11:42:05 :
Il faut surtout de la VRAM. Un bon deal ce sont les macs car ils ont de la mémoire unifiée( mais ça ne va pas coller avec ton envie de jeux vidéo). Un mac avec 32gb de mémoire unifiée permet de faire tourner des petits modèles sympas de Qwen etc.
En nvidia sur PC, je dirais pour débuter RTX 5060 TI 16gb. Et si on a plus d'argent la RTX 5090 avec ses 32Gb.
Ensuite il faut rester réaliste, on ne peut faire tourner que des petits modèles ( donc bien moins intelligents pour les raisonnements ) et c'est très lent à construire la réponse par rapport à chatGPT, Claude etc.
Bref, il y a beaucoup de scénarios où c'est en réalité plus intéressant de consommer les API des grands modèles.
De la merde la 5060ti, je le sais j'en ai. Saif que j'ai payé les miennes 350e, avant la hausse des prix qui est une enculade.
Le mieux si l'op a déjà un PC c'est de partir sur de la 3090 d'occasion. 2x3090 c'est environs 2x650€ sur leboncoin et ça permet de faire une machine à 48Go de VRAM là ça passe dans le budget. Si le boitier ne permet pas de mettre 2x3090 (grosse carte c'est un putain de veau et ça chauffe) alors là 3090 + 4070ti ça donne 40Go de VRAM c'est pas mal.
T'as quoi comme config actuellement l'op?
j'ai rien
![]()
enfin j'ai un thinkpad à la con que j'utilise pour bosser, mais je travaille sur du cloud donc j'ai pas besoin d'un gros truc.en gros pour vous la faire courte je suis un ingé devops surtout spécialisé système linux, conteneur et cloud et j'aimerais me former à l'IA où je n'y connais pas grand chose d'autre que chat gpt, pour peut être ensuite dérrière faire une petite activité subsidiaire dans le futur si ça marche bien.
Carte mère 2 slots pcie 3x8.0 (pas de réelle perte pour une config 2 GPU) + CPU (genre Z97 gaming 3 + 4790k) + 32Go de DDR3 = < 200€ sur lbc
Boitier spacieux (Fractal XL) = 200€
Alim 1200W = 150€
Stockage = 150€
RTX 3090 = 700€ max sur lbc
RTX 4060ti super = 800€ max sur lbc
Ça dépasse ton budget de 200e mais t'auras une machine de 40Go de VRAM.
De quoi faire tourner Qwen3.5 27B en Q6 65k context @20 tps ou Qwen3.5 30B A3B 65k context @ +100tps 
24Go de VRAM pour jouer avec comfyui c'est très bien 
En plus vu que t'es un Linuxien tu auras de meilleures perfs que sous windows 
Le 08 mars 2026 à 11:56:48 :
Le 08 mars 2026 à 11:51:38 :
Le 08 mars 2026 à 11:42:05 :
Il faut surtout de la VRAM. Un bon deal ce sont les macs car ils ont de la mémoire unifiée( mais ça ne va pas coller avec ton envie de jeux vidéo). Un mac avec 32gb de mémoire unifiée permet de faire tourner des petits modèles sympas de Qwen etc.
En nvidia sur PC, je dirais pour débuter RTX 5060 TI 16gb. Et si on a plus d'argent la RTX 5090 avec ses 32Gb.
Ensuite il faut rester réaliste, on ne peut faire tourner que des petits modèles ( donc bien moins intelligents pour les raisonnements ) et c'est très lent à construire la réponse par rapport à chatGPT, Claude etc.
Bref, il y a beaucoup de scénarios où c'est en réalité plus intéressant de consommer les API des grands modèles.
De la merde la 5060ti, je le sais j'en ai. Sauf que j'ai payé les miennes 350e, avant la hausse des prix qui est une enculade.
Le mieux si l'op a déjà un PC c'est de partir sur de la 3090 d'occasion. 2x3090 c'est environs 2x650€ sur leboncoin et ça permet de faire une machine à 48Go de VRAM là ça passe dans le budget. Si le boitier ne permet pas de mettre 2x3090 (grosse carte c'est un putain de veau et ça chauffe) alors là 3090 + 4070ti ça donne 40Go de VRAM c'est pas mal.
T'as quoi comme config actuellement l'op?
T'es sûr que tu n'as pas acheté la 8Gb pour 350 ?
Après ça reste l'entrée de gamme bien sûr, mais la génération d'image et run des petits modèles fonctionneront. Bref pour simplement découvrir comment run l'IA en local à moindre frais. Et il pourra faire du gaming en 1080p dessus.
La 3090, ça nécessite de l'occasion, toujours dangereux si on n'est pas calé pour repérer les cartes qui ont turbiné à fabriquer de la crypto ou de l'ia 24h/24, et vont bientôt lâcher.
Non c'est bien une 16Go lol j'ai 24 + 16 + 16.
Perso 3090 d'occase pas de problème mais il faut avoir le courage de la démonter pour changer pâte et pads thermiques.
Le 08 mars 2026 à 12:04:04 :
Qu'est ce que raconte l'op... J'arrive pas a savoir s'il troll ou s'il comprend vraiment rien.
j'ai dit que j'y comprend rien
Le 08 mars 2026 à 12:03:07 :
Le 08 mars 2026 à 12:00:29 :
pour me mettre à faire notament de L'IA dont de l'IA générative.
De l'ia générative d'une génération générative génératrice de générateur générative ?
Ah très bien 
Bon comme tu as pu le voir, une 3090 est actuellement le meilleur rapport qualité prix, et d'ailleurs j'en ai une qui date de 2020, je fais du comfyui et ca fonctionne très bien, on est pas vraiment limité sur les models grâce au 24go de vram.
Ces GPU sont très solides, mais selon les utilisations et utilisateurs...
RTX 3090 = 700€ max sur lbc
RTX 4060ti super = 800€ max sur lbc
Même si tu parles d'une 4070Ti super (la 4060 Ti super n'existe pas), y'a zéro intérêt par rapport à deux 3090.
Le 08 mars 2026 à 12:11:14 :
RTX 3090 = 700€ max sur lbc
RTX 4060ti super = 800€ max sur lbcMême si tu parles d'une 4070Ti super (la 4060 Ti super n'existe pas), y'a zéro intérêt par rapport à deux 3090.
Oui je voulais parler de la 4070ti super déso 
L'intérêt c'est de garder l'intérieur du boitier à une température acceptable 
Le 08 mars 2026 à 12:14:00 :
Le 08 mars 2026 à 12:11:14 :
RTX 3090 = 700€ max sur lbc
RTX 4060ti super = 800€ max sur lbcMême si tu parles d'une 4070Ti super (la 4060 Ti super n'existe pas), y'a zéro intérêt par rapport à deux 3090.
Oui je voulais parler de la 4070ti super déso
L'intérêt c'est de garder l'intérieur du boitier à une température acceptable
Franchement la différence de refroidissement est négligeable, à ce niveau. 
En plus il veut potentiellement jouer, ce qui rend un peu bancal le choix de CPU/RAM (alors que l'idée est bonne pour de l'IA pure).
IMO il a tout intérêt à juste s'amuser avec une clef API, et s'il veut vraiment faire du local, prendre une seule 3090 et compléter plus tard s'il veut monter en puissance.
Merci pour tous vos conseil je vais un peux réévaluer le truc à voir si ça vaut pas mieux de tout faire sur des serveurs où avec des outil en ligne du moins pour le moment.
j'ai l'impression que mon soucis niveau hardware c'est surtout que je part de rien et que du coup ça fait un très gros billet à lacher d'un coup pour s'y mettre sérieusement, plutôt que d'avoir juste un GPU ou de la ram à ajouter a une config déjà existante.
Le 08 mars 2026 à 12:17:27 :
Le 08 mars 2026 à 12:14:00 :
Le 08 mars 2026 à 12:11:14 :
RTX 3090 = 700€ max sur lbc
RTX 4060ti super = 800€ max sur lbcMême si tu parles d'une 4070Ti super (la 4060 Ti super n'existe pas), y'a zéro intérêt par rapport à deux 3090.
Oui je voulais parler de la 4070ti super déso
L'intérêt c'est de garder l'intérieur du boitier à une température acceptable
Franchement la différence de refroidissement est négligeable, à ce niveau.
En plus il veut potentiellement jouer, ce qui rend un peu bancal le choix de CPU/RAM (alors que l'idée est bonne pour de l'IA pure).IMO il a tout intérêt à juste s'amuser avec une clef API, et s'il veut vraiment faire du local, prendre une seule 3090 et compléter plus tard s'il veut monter en puissance.
L'espace gagné par une 2 slots par rapport à une 3 slot n'est pas négligeable, 2x3090 en sandwich y'a pas d'air dispo pour le gpu du dessus alors que si tu mets la 2 slots en haut et la 3 slots en bas y'a de l'air qui passe c'est propre.
Je ne sais pas si tu as une 3090, mais en inférence ses puces de mémoire chauffent beaucoup plus qu'en jeu, c'est le genre de carte devant laquelle tu veux mettre des ventilateurs supplémentaires quand tu l'entends faire des cliquetis en refroidissant 
Ah bah si il veut jouer en plus c'est mort avec ce budget oui à ce moment là tout ce qui compte dans sa config gaming c'est de prendre une carte mère qui a deux lignes pci et une grosse alim pour l'évolutivité et d'aviser plus tard 
Afficher uniquement les messages de l'auteur du topic