Le 27 avril 2025 à 08:24:45 :
Je m'y suis mis aussi via ComfyUi, y'a bcp de chose à apprendre mais c'est passionnant et l'interface fait très unreal. Y'a de très bon tuto sur youtube.
J'aimerais tenter de faire une visual novel, mais avec des model réaliste. Je vais faire mon premier Lora, en espérant arriver à truc correct sur la constance du perso et pas devoir passer par re paint à chaque fois (je suis sur un dérivé de sdxl).
C'est pas évident de se faire un bon set d'image pour créer un Lora en partant de rien. D'ailleurs si je veux que mon perso ai différentes tenus dois-je créer un lora pour chaque variations ?
Merci !(fait à la rache)
Le 27 avril 2025 à 08:24:45 PaslaLoco a écrit :
Je m'y suis mis aussi via ComfyUi, y'a bcp de chose à apprendre mais c'est passionnant et l'interface fait très unreal. Y'a de très bon tuto sur youtube.
J'aimerais tenter de faire une visual novel, mais avec des model réaliste. Je vais faire mon premier Lora, en espérant arriver à truc correct sur la constance du perso et pas devoir passer par re paint à chaque fois (je suis sur un dérivé de sdxl).
C'est pas évident de se faire un bon set d'image pour créer un Lora en partant de rien. D'ailleurs si je veux que mon perso ai différentes tenus dois-je créer un lora pour chaque variations ?
Merci !(fait à la rache)
Si tu veux des tips pour création de Lora j'suis là.
Déjà est ce que tu as des images en hautes résolutions ? Combien d'image dans ton dataset ? Ensuite si tu veux un lora quali, renseigne toi aussi au niveau de captioning, et oublis pas d'ajouter un trigger token dans tes captions (quand on ajoute un trigger token dans le prompt avec ton lora, le personnage sera immédiatement identifié et facilitera sa generation)
Exemple de trigger token : ohwxwoman, ohwxm0npers0, ou juste ohwx seul, mais j'aime pas trop le laisser seul.
Pourquoi ohwx ? Ben c'est un "token" pas reconnu dans la plupart des checkpoints, en l'utilisant pour entrainer un lora basé sur un personnage, ohwx sera donc bien identifié.
Pour le captioning, je te conseil le langage naturel, avec Florence-2 ou JoyCaption alpha2. Il existe des méthode pour le faire en batching.
Si tu veux un Lora réaliste fais le avec un checkpoint réaliste, évite SDXL 1.0 base.
Dans ton dataset évite les images sous ex, sur ex, floues, trop pixelisé/bruitée ou ayant des artefacts jpeg trop visible
Quand t'auras fini ton dataset au complet, on pourra parler configuration sur Kohya_ss.
Le 21 mai 2025 à 10:26:31 :
Est-ce qu'il existe des commandes qui empêchent aux différents prompts de se mélanger? Par exemple je veux avoir 2 ou 3 personnages sur une meme image, mais très souvent les prompts se mélangent et font n'importe quoi, par exemple je veux qu'un garçons porte un t shirt black et 1 fille nue, mais au final les deux portes des t shirt blacks XD
Bref, comment faire en sorte que chaque personnage ait ses propres prompts? Merci.
Il suffit de mettre "BREAK" entre chaque paragraphe
Exemple : 1 chat jaune, portant une casquette, BREAK, un chat gris, portant des lunettes, BREAK, les deux chat jouent aux echecs
Le 21 mai 2025 à 10:26:31 alastorworld a écrit :
Est-ce qu'il existe des commandes qui empêchent aux différents prompts de se mélanger? Par exemple je veux avoir 2 ou 3 personnages sur une meme image, mais très souvent les prompts se mélangent et font n'importe quoi, par exemple je veux qu'un garçons porte un t shirt black et 1 fille nue, mais au final les deux portes des t shirt blacks XD
Bref, comment faire en sorte que chaque personnage ait ses propres prompts? Merci.
Regarde aussi du côté du "regional prompt".
Ca permet définir des zones dans l'image finale et faire des prompts pour chacune de ces zones...
Yo les kheys !
Je suis dans le game depuis quelques jours, je suis complètement accro 
J'ai une petite question : quand on veut créer une scène avec deux personnages distincts, vous avez des tips niveau prompt pour "contrôler" les vêtements/expressions/mouvements/position de chacun des personnages ?
Le 22 mai 2025 à 22:10:44 Quezko a écrit :
Yo les kheys !Je suis dans le game depuis quelques jours, je suis complètement accro
J'ai une petite question : quand on veut créer une scène avec deux personnages distincts, vous avez des tips niveau prompt pour "contrôler" les vêtements/expressions/mouvements/position de chacun des personnages ?
Le 22 mai 2025 à 22:14:58 :
Le 22 mai 2025 à 22:10:44 Quezko a écrit :
Yo les kheys !Je suis dans le game depuis quelques jours, je suis complètement accro
J'ai une petite question : quand on veut créer une scène avec deux personnages distincts, vous avez des tips niveau prompt pour "contrôler" les vêtements/expressions/mouvements/position de chacun des personnages ?
Oui, j'ai vu entre-temps ! 
Merci 
Le 06 juin 2025 à 14:18:22 kheyduhelm3 a écrit :
Y'a des kheys sur comfyUI ? je crois que ça tourne avec stable diffusion mais c'est beaucoup plus avancée, j'ai un pote au bureau qui l'utilise.
Oui, sur ComfyUI depuis quasiment le début (enfin je ne génère plus vraiment d'images actuellement).
Le 28 juillet 2025 à 02:37:36 alastorworld a écrit :
Grace au tuto j'ai appris comment utiliser stable diffusion pour les images, maintenant j'aimerais comprendre comment ca marche pour générer de belles vidéos XD
Tout ce que j'ai compris c'est qu'il y un truc qui s'appelle "ComfyUI" et "WAN", mais j'ai aucune idée de comment ca marche, ca s'installe sur mon stable diffusion comme plugin? Un tuto? Merci.
A voir sir Wan n'est pas dispo sur A1111, Forge, ReForge ou d'autres...
Comfyui, c'est une autre interface (un peu plus complexe que Forge, A1111, ReForge, etc...)
https://github.com/comfyanonymous/ComfyUI
Wan est dispo dessus
https://comfyanonymous.github.io/ComfyUI_examples/wan/ (avec des exemples de workflows [cf juste après])
"L'installation" est tout aussi simple que A1111, Forge, etc... Juste à décompresser l'archive
https://github.com/comfyanonymous/ComfyUI?tab=readme-ov-file#windows-portable
Ensuite, tu peux utiliser plein de modèles (plus ou moins tous).
Ca se fait via des Workflow composés de Nodes qui ont chacun une certaine fonctionnalité.
Par exemple (chaque fois un node):
Les nodes sont reliés entre eux pour que ça fonctionne...
Tu peux entièrement créer tes propres workflow, mais il y a aussi des tonnes de Workflow déjà tout prêt (et que tu peux modifier si besoin)...
Pas simple à expliquer comme ça...
Faut vraiment tester. C'est un petit apprentissage au début, mais ensuite je trouve ça mieux que A1111 et autres car on est bien plus libre...
C'est impressionnant au début, mais on s'y fait vite (J'entends déjà certains Kheys me traiter de taré
)
Le 28 juillet 2025 à 02:47:35 :
Le 28 juillet 2025 à 02:37:36 alastorworld a écrit :
Grace au tuto j'ai appris comment utiliser stable diffusion pour les images, maintenant j'aimerais comprendre comment ca marche pour générer de belles vidéos XD
Tout ce que j'ai compris c'est qu'il y un truc qui s'appelle "ComfyUI" et "WAN", mais j'ai aucune idée de comment ca marche, ca s'installe sur mon stable diffusion comme plugin? Un tuto? Merci.A voir sir Wan n'est pas dispo sur A1111, Forge, ReForge ou d'autres...
Comfyui, c'est une autre interface (un peu plus complexe que Forge, A1111, ReForge, etc...)
![]()
https://github.com/comfyanonymous/ComfyUI
Wan est dispo dessushttps://comfyanonymous.github.io/ComfyUI_examples/wan/ (avec des exemples de workflows [cf juste après])
"L'installation" est tout aussi simple que A1111, Forge, etc... Juste à décompresser l'archive
https://github.com/comfyanonymous/ComfyUI?tab=readme-ov-file#windows-portable
Ensuite, tu peux utiliser plein de modèles (plus ou moins tous).
Ca se fait via des Workflow composés de Nodes qui ont chacun une certaine fonctionnalité.Par exemple (chaque fois un node):
- Charger le modèle
- Rédiger ton prompt
- "Ksampler" qui va créer l'image
- ...
Les nodes sont reliés entre eux pour que ça fonctionne...
Tu peux entièrement créer tes propres workflow, mais il y a aussi des tonnes de Workflow déjà tout prêt (et que tu peux modifier si besoin)...
Pas simple à expliquer comme ça...
Faut vraiment tester. C'est un petit apprentissage au début, mais ensuite je trouve ça mieux que A1111 et autres car on est bien plus libre...
C'est impressionnant au début, mais on s'y fait vite (J'entends déjà certains Kheys me traiter de taré)

Je UP le topic juste pour vous dire de garder un oeil sur Qwen image, je pense que dans les prochains mois ca va envoyer du lourd (quand la communauté aura fait des finetune aux petits oignons). Je fais quelque tests et niveau liberté /censure ça a rien à voir avec Flux ou SD3/ 3.5 (oui car full open source).
Les chinois ont décidé de définitivement s'imposer dans le milieu de l'IA.
JvArchive compagnon