Le 01 juin 2025 à 18:55:26 saddeveloper a écrit :
Le 01 juin 2025 à 18:54:26 :
J'ai deux 4060Ti 16Go de VRAM![]()
Pour un total de 32Go de VRAM pour faire tourner des LLM en local
![]()
Tu fais quoi? t'as essayé les genérateurs de vidéos?
Il génère son propre porno personnalisé avec des photos de ses collègues 10/10 ce gros cochon
Le 01 juin 2025 à 18:55:37 :
Le 01 juin 2025 à 18:55:14 :
Le 01 juin 2025 à 18:54:15 :
ON PARLE DE CA pour ceux qui ne l'ont pas COMPRIS !!!!!!
PREUVE???????
https://www.leboncoin.fr/ad/accessoires_informatique/2993435167
Le 01 juin 2025 à 18:57:13 :
Le 01 juin 2025 à 18:55:26 saddeveloper a écrit :
Le 01 juin 2025 à 18:54:26 :
J'ai deux 4060Ti 16Go de VRAM![]()
Pour un total de 32Go de VRAM pour faire tourner des LLM en local
![]()
Tu fais quoi? t'as essayé les genérateurs de vidéos?
Il génère son propre porno personnalisé avec des photos de ses collègues 10/10 ce gros cochon
![]()
ayaaa ce puceau
Le 01 juin 2025 à 18:55:26 :
Le 01 juin 2025 à 18:54:26 :
J'ai deux 4060Ti 16Go de VRAM![]()
Pour un total de 32Go de VRAM pour faire tourner des LLM en local
![]()
Tu fais quoi? t'as essayé les genérateurs de vidéos?
Je fais tourner Gemma3 27B sur des données privées, ou des modèles plus léger sur de larges contextes
Pour les générateurs de vidéo tu peux pas cumuler la VRAM donc seulement 16Go dispo avec les perfs médiocres de la 4060Ti, y'a mieux
Le 01 juin 2025 à 19:00:07 :
Le 01 juin 2025 à 18:55:26 :
Le 01 juin 2025 à 18:54:26 :
J'ai deux 4060Ti 16Go de VRAM![]()
Pour un total de 32Go de VRAM pour faire tourner des LLM en local
![]()
Tu fais quoi? t'as essayé les genérateurs de vidéos?
Je fais tourner Gemma3 27B sur des données privées, ou des modèles plus léger sur de larges contextes
![]()
Pour les générateurs de vidéo tu peux pas cumuler la VRAM donc seulement 16Go dispo avec les perfs médiocres de la 4060Ti, y'a mieux
![]()
Avoir 2 GPU ça fonctionne comment? Ollama gère?
Le 01 juin 2025 à 19:00:57 :
Le 01 juin 2025 à 19:00:07 :
Le 01 juin 2025 à 18:55:26 :
Le 01 juin 2025 à 18:54:26 :
J'ai deux 4060Ti 16Go de VRAM![]()
Pour un total de 32Go de VRAM pour faire tourner des LLM en local
![]()
Tu fais quoi? t'as essayé les genérateurs de vidéos?
Je fais tourner Gemma3 27B sur des données privées, ou des modèles plus léger sur de larges contextes
![]()
Pour les générateurs de vidéo tu peux pas cumuler la VRAM donc seulement 16Go dispo avec les perfs médiocres de la 4060Ti, y'a mieux
![]()
Avoir 2 GPU ça fonctionne comment? Ollama gère?
Oui ollama prendra tous les accélérateurs CUDA disponibles par défaut, c'est une fonctionnalité de base, lm-studio fait pareil
Le 01 juin 2025 à 19:02:22 :
Le 01 juin 2025 à 19:00:57 :
Le 01 juin 2025 à 19:00:07 :
Le 01 juin 2025 à 18:55:26 :
Le 01 juin 2025 à 18:54:26 :
J'ai deux 4060Ti 16Go de VRAM![]()
Pour un total de 32Go de VRAM pour faire tourner des LLM en local
![]()
Tu fais quoi? t'as essayé les genérateurs de vidéos?
Je fais tourner Gemma3 27B sur des données privées, ou des modèles plus léger sur de larges contextes
![]()
Pour les générateurs de vidéo tu peux pas cumuler la VRAM donc seulement 16Go dispo avec les perfs médiocres de la 4060Ti, y'a mieux
![]()
Avoir 2 GPU ça fonctionne comment? Ollama gère?
Oui ollama prendra tous les accélérateurs CUDA disponibles par défaut, c'est une fonctionnalité de base, lm-studio fait pareil
![]()
Disons que je vais sur ComfyUI je prend un workflow déjà fait j'ai 2 GPU hop c'est bon les 2 gpu sont pris en comptes? Ou besoin de config
ca existe encore 8gb de vram ?
J'ai une 1060 avec 6gb de vram, un truc qui date de 10 ans
Le 01 juin 2025 à 19:03:32 :
Le 01 juin 2025 à 19:02:22 :
Le 01 juin 2025 à 19:00:57 :
Le 01 juin 2025 à 19:00:07 :
Le 01 juin 2025 à 18:55:26 :
> Le 01 juin 2025 à 18:54:26 :
> J'ai deux 4060Ti 16Go de VRAM
![]()
>
> Pour un total de 32Go de VRAM pour faire tourner des LLM en local
![]()
>
Tu fais quoi? t'as essayé les genérateurs de vidéos?
Je fais tourner Gemma3 27B sur des données privées, ou des modèles plus léger sur de larges contextes
![]()
Pour les générateurs de vidéo tu peux pas cumuler la VRAM donc seulement 16Go dispo avec les perfs médiocres de la 4060Ti, y'a mieux
![]()
Avoir 2 GPU ça fonctionne comment? Ollama gère?
Oui ollama prendra tous les accélérateurs CUDA disponibles par défaut, c'est une fonctionnalité de base, lm-studio fait pareil
![]()
Disons que je vais sur ComfyUI je prend un workflow déjà fait j'ai 2 GPU hop c'est bon les 2 gpu sont pris en comptes? Ou besoin de config
ComfyUI prendra ton premier GPU, pas moyen de stacker pour disposer d'une grosse VRAM, tu pourras peut-être pour lancer deux rendus en parallèle mais l'intérêt est moindre
Le 01 juin 2025 à 19:06:00 :
Le 01 juin 2025 à 19:04:20 :
Le 01 juin 2025 à 19:03:09 :
C'est les meilleures cartes, ne chauffent pas, coûtent pas cher, consomment peu.
This j'ai laché mon veau de 3090, la chauffe et le bruit dès que tu fais un peu de 3D, c'est insupportable + consomme plus que deux 4060Ti
![]()

Le 01 juin 2025 à 18:46:03 :
7900xt avec 20gb de vrai => tranquille pendant des années.Nvidia chie sur le consommateur et le consommateur en redemande.
Sortir en 2025 des cg HDG avec autant de vram qu'en 2016 2017, c'est fort.
Bah il font du apple
Il faut bien pousser le consommateur a mettre un SMIC mini dans une carte graphique
Afficher uniquement les messages de l'auteur du topic