Suisei 5,259 Posté(e) 13 août 2023 (modifié) Les tests Maintenant faisons une série de tests avec les principaux modèles de contrôle. Je vous montrerai une autre fois comment installer tout ça. On va séparer ça en 2 parties, personnage et décor, parce que certains modèles de contrôle sont plus adaptés à l’un ou à l’autre Les personnages Commençons par les personnages. Pour nos tests on va se choisir un modèle de diffusion qui va nous permettre de générer un personnage bien connu : ce bon vieux Dark Vador ! C’est l’occasion de vous présenter une autre plateforme de partage de modèles : CivitAI. https://civitai.com/ CivitAI, qu’est-ce que c’est ? Tout comme Hugging Face, il s’agit d’une plateforme d’hébergement et de téléchargement de modèles d’IA que les membres du site upload bénévolement. Ce sont essentiellement des versions customisées de Stable Diffusion. On peut y trouver des modèles généralistes aux modèles ultra spécialisés improbables en passant par des modèles conçus pour un ou des styles particuliers. Quelques exemples : Des chiottes pour garçons dans les universités japonaises… Si si ! Ça existe ! Ne me demandez pas ce que le concepteur de ce modèle a prévu de faire avec, j’ai pas envie de savoir. x)https://civitai.com/models/9592/boys-restroom-in-a-japanese-high-school Un modèle pour transformer Poutine en clown (prout à la censure de Dall-E). https://civitai.com/models/568/putin-clown Et des TONNES de modèles de waifu ! On peut dire qu’il y a une communauté qui a trouvé satisfaction dans l'émergence des IA. Ça doit être les mêmes qui uploadent des modèles 3D chez DAZ… *tousse* En tout cas, les auteurs de visual novels amateurs doivent être HEU-REUX ! x) Ceci étant dit, en prenant le temps de fouiner un peu, on peut trouver des modèles graphiquement intéressants. En voici quelques-uns que j’ai testés. https://civitai.com/models/4384/dreamshaper (Digital painting)https://civitai.com/models/1462/pulp-art-diffusion (Peinture rétro type couverture de magasines pulp)https://civitai.com/models/1122/rachel-walker-style-watercolor (Aquarelle)https://civitai.com/models/4998/vivid-watercolors (Aquarelle et couleurs flashy)https://civitai.com/models/9928/alloldrpgarts11990s (Un des modèles de noir et blanc que j’ai trouvés) Revenons à notre test. Dans le cas présent, j’ai utilisé un modèle très spécialisé. Il sert à générer des Dark Vador : https://civitai.com/models/13780/dark-lord-vador L’image d’entrée qui servira à contraindre la pose de Dark Vador sera mon habituelle photo de mon body kun. Canny Le filtre de Canny (https://fr.wikipedia.org/wiki/Filtre_de_Canny) est un filtre de traitement d’image classique (pas de machine learning derrière) et il permet de détecter les contours et les arêtes dans une image. En filtrant ma photo avec cet algorithme, ça donne le lineart tout crénelé ci-dessous à gauche. Ci-dessus à droite, vous pouvez voir le résultat après avoir passé le lineart dans Stable Diffusion combiné au modèle ControlNet de type Canny. Le point positif, c’est que le lineart est assez scrupuleusement respecté. Le point négatif, c’est que son respect du lineart est aussi son point faible. x) On a bien la pose voulue, mais la cape est absente puisqu’elle n’est pas présente dans le lineart et Vador ressemble plus à une figurine qu’autre chose puisque Stable Diffusion a essayé de reproduire les articulations du body-kun. Le sabre-laser reproduit trop exactement le katana et le casque semble essayer de se loger dans la silhouette de la tête. HED (Holistically-Nested Edge Detection) Le filtre HED fait grosso-modo la même chose que le filtre Canny (détecter les contours et les arêtes d’une image) à la différence qu’il est basé sur du deep learning (comme les filtres neuronaux d’Adobe) et qu’il fournit une hiérarchisation des détails. Les objets ont des contours épais, les détails ont des contours plus fins. En passant ma photo dans ce filtre, ça me donne l’espèce de croquis ci-dessous à gauche. Ci-dessus à droite, vous pouvez voir le résultat après avoir passé le lineart dans Stable Diffusion combiné au modèle ControlNet de type HED. Bon, globalement, j’en tire les mêmes conclusions que pour Canny. En fait, d’après mes bancs de tests, selon le photo d’entrée et le sujet qu’on veut générer, l’un ou l’autre fonctionnera mieux. Il faut tester les 2. Alors ça, c’était la première fois que je testais cet algo, mais en fouinant dans mes vieux TP d’école d’ingé sur le traitement d’image et en refaisant une batterie de tests, j’ai trouvé que le croquis d’entrée on pouvait l’obtenir en bidouillant un vieux filtre de Sobel (https://fr.wikipedia.org/wiki/Filtre_de_Sobel), donc pas de machine learning. C’est plus rapide, plus économe en ressources, plus propre et injecté dans Stable Diffusion ça fonctionne tout aussi bien ! Depth Cet algorithme là est basé sur filtre neuronal qui fait une estimation de la profondeur de votre photo d’entrée. C’est un peu comme la passe Mist de Blender, sauf que là où elle est exacte et paramétrable dans Blender, avec ce filtre neuronal, c’est au p’tit bonheur la chance. Sur ma photo, ça donne l’image ci-dessous à gauche. Notez que comme le filtre tente d’évaluer la profondeur de l’environnement, le personnage apparaît assez plat et qu’il y a donc une perte d’informations. Une fois que l’image de profondeur a été injectée dans Stable Diffusion, ça donne l’image ci-dessus à droite. On a encore des défauts similaires au cas Canny et HED parce que l’IA tente de suivre la silhouette. Mais comme le personnage de l’image de profondeur est plat, on perd tous les détails des doigts et les informations de raccourcis notamment sur son avant bras droit, du coup, sur le résultat final, cette partie est complètement pétée. Normal Cet algorithme est aussi basé sur le filtre neuronal qui fait une estimation de la profondeur de la photo d’entrée, sauf qu’on ajoute un second filtre derrière pour en tirer une normal map. Cette étape, c’est du traitement d’image classique sans machine learning. A partir du moment où on dispose d’une height map ou d’une depth map, la normal map se déduit en calculant le gradient sur l’axe x puis sur l’axe y. Comme la normal map est calculée sur la base de la map de profondeur précédente, elle souffre des mêmes manques d’informations. Heu… Mais kesskilafé ? Je crois que mon ordi est en train de me dire “Maman ! J’ai pas compris !” Bon, on va laisser tomber l’algo basé sur les normal maps. Openpose Alors celui-là, il est très populaire, il suscite beaucoup de fantasmes quant à sa puissance, mais en vérité… Si vous aimez le body horror, c’est un très bon jouet ! Pour moi il est à réserver à ceux qui ne savent pas dessiner du tout. x) Cet algo repose sur un autre filtre neuronal, Open Pose (https://github.com/CMU-Perceptual-Computing-Lab/openpose), dont le principe est de repérer les principales articulations d’un sujet humanoïde sur une photo. Ça donne l’image ci-dessous à gauche. D’avance, ça sent les problèmes ! Car comme vous le voyez, y’a pas les mains, et quand on ne fournit pas d’information sur les mains, ça ne se passe jamais bien. 8D Quand on passe ce bonhomme fil de fer dans Stable Diffusion, ça donne l’image ci-dessus à droite. Vous notez le plus gros point faible… Et bien comme il n’y a pas d’info sur les mains, l’IA est complètement paumée sur ce point et le sabre laser, elle sait pas quoi en faire. Le raccourci sur l’avant bras droit de Vador, elle ne le comprend pas non plus. Voilà, ça c’est avec une pose et un cadrage bâteau. Je vous laisse imaginer avec des mises en scène plus exotiques. Le point positif, c’est que l’IA n’essaie plus de reproduire les contours exacts du body kun dont les articulations. Du coup, la cape est présente aussi. Scribble Scribble, c’est un algorithme qui accepte en entrée n’importe quelle croquis (du moment qu’il est inversé en mode blanc sur noir), qu’il soit fait à la main ou en passant une photo dans le filtre Canny ou dans le filtre HED. Ici, j’ai fait un essai avec le résultat du filtre Canny. Point positif, il suit plutôt bien la pose mais sans afficher les articulations type figurine. Point négatif, il a du mal avec les mains et les raccourcis… Et puis il me colle des sabres laser partout… ¬¬ La cape est manquante aussi. Bon, voilà pour les personnages. Il y a de l’idée, on peut mieux contrôler le résultat, mais il y a encore un paquet de trucs tout cassés. Pour obtenir les résultats bluffants que certains affichent sur Internet, il va falloir aller plus loin et mettre un peu les mains dans le cambouis. Les décors Pour les décors, on va essayer d’un côté un environnement de nature et de l’autre un environnement architectural. Images téléchargées sur Pexels (https://www.pexels.com/fr-fr/photo/photographie-de-cascades-entre-les-arbres-788200/, https://www.pexels.com/fr-fr/photo/bateau-gris-et-marron-voyageant-sur-une-riviere-artificielle-586687/). Canny Les entrées Les sorties J’ai fait pas mal d'essais avec diverses photos de nature et globalement, ça donne des résultats vraiment sympa. Pour les décors de nature, l’algo Canny me semble idéal et j’ai une idée de workflow à tester. HED Les entrées Les sorties MLSD Cet algorithme là, nous l’avons pas encore vu avec Dark Vador, et pour cause, il est spécifiquement pour les décors architecturaux ou d’intérieur présentant de la perspective. Le modèle de préprocessing extrait les lignes droites qu’il trouve dans la photo d’entrée avant d’envoyer le résultat en entrée de Stable Diffusion et de ControlNet. Depth Les entrées Le modèle d’estimation me semble assez paumé par rapport à la photo dans le cas de la jungle avec la chute d’eau. On aura sûrement un résultat qui correspond peu à la photo d’origine. Les sorties Comme prévu, pour la jungle, le résultat ne correspond pas vraiment à la photo d’origine, en revanche, il prend bien en compte la profondeur estimée. Avec une map de profondeur correcte il y a sûrement moyen d’en tirer quelque chose d’intéressant. Normal Les entrées Très peu d’info visibles. Je m’attends à ce que cet algo soit inadapté aux décors. Les sorties Sans surprise, comme il n’y a quasi pas d’info en entrée, Stable Diffusion improvise complètement sur la base du prompt. Cet algo n’est pas concluant parce que l’accumulation de l’estimation de la profondeur puis des normales lors du preprocessing perd énormément d’informations sur la photo d’origine. Il va falloir tester une autre solution pour réellement tester le potentiel de l’algo. Scribble Les entrées On reprend les mêmes entrées que pour Canny. Les sorties Pour le décor de nature, comme Scribble a tendance à prendre plus de liberté que Canny et que l’image d’entrée est très bruitée, Stable Diffusion a tendance à improviser. Sur le décor architectural, comme l’image d’entrée est moins bruitée, la perspective globale est mieux conservée. Premier bilan Pour résumer ce premier banc de test, globalement, ControlNet porte bien son nom et apporte un moyen de maîtriser davantage la composition de l’image finale. Certains modèles de contrôle sont plus adaptés à certaines situations que d’autres. Pour les personnages, il y a toujours des difficultés avec les mains et certains raccourcis, mais ça dégrossit le travail. Pour les décors de nature ça fonctionne globalement très bien, mais c’est facile parce que c’est ce qui demande le moins d’exactitude. Pour les décors architecturaux, ça permet de globalement bien imposer la perspective. Ça marche bien sur les bâtiments proches, mais plus les bâtiments apparaissent petits plus l’IA est paumée et ne comprend plus la perspective. Il faut dire que les images d’entrée sont des approximations et que les zones très détaillées deviennent un gloubiboulga incompréhensible si elles ne disparaissent pas carrément au pré-traitement. Modifié 13 août 2023 par Suisei Mise en page 1 Citer TGCM Comics (Plateforme BD en cours de développement) : https://tgcm-comics.blogspot.comSite : https://www.suiseipark.comDiscord : https://discord.gg/ZMyu2Ky "To boldly go where no man has gone before" Partager ce message Lien à poster Partager sur d’autres sites More sharing options...
Suisei 5,259 Posté(e) 13 août 2023 Le cheat code de l’artiste Bon, c’est bien joli de travailler à partir d’une photo de référence, mais vous avez bien remarqué que les images intermédiaires calculées (détection des contours, depth map, normal map…) sont très approximatives et que dans le cas des modèles de contrôle les plus précis (Canny, HED), l’image finale suit trop (?) le lineart d’entrée (et dans les autres cas, elle est toujours un peu paumée). Comment qu’on fait pour résoudre ça ? Reprenons le schéma de fonctionnement du début avec une petite modification. Bon, vous avez compris, le procédé fonctionne en 2 étapes séparées : la transformation de la photo, puis, la génération de l’image par le modèle de diffusion. Ça veut dire qu’on peut tout simplement court-circuiter la première étape en envoyant directement au modèle ControlNet une image déjà proprement formatée. Par exemple, dans le cas de Canny, HED, MLSD et scribble, on peut tout simplement envoyer un vrai dessin fait à la mano au modèle de diffusion. Dans le cas de la depth map ou de la normal map on peut la générer à partir d’une scène 3D simpliste modélisée dans Blender. Cette méthode va permettre d’obtenir des résultats bien plus maîtrisés ! 😄 Reprenons nos tests, mais cette fois en zappant la première étape. Par dessus la photo de mon body kun j’ai fait un croquis de Dark Vador que j’ai ensuite repassé en vectoriel pour être sûre de toujours avoir la même épaisseur de trait partout. J’ai ensuite envoyé mon lineart manuel directement en entrée du modèle de diffusion contraint par le controlNet Canny. On a quand même vachement moins l’impression d’avoir affaire à une figurine cette fois ! C’est loin d’être parfait, mais c’est intéressant. J’ai aussi fait un petit essai avec l’algorithme Scribble et le même dessin d’entrée. L’anatomie est quand même un peu moins cassée avec Canny. Voici les résultats d’un petit banc de test avec cette méthode. Bon, c’est bien, on maîtrise mieux le résultat qu’avec un prompt tout seul. On peut imposer une compo, la pose d’un perso, son design… Mais vous admettrez qu’il y a encore une sacrée couille dans le potage. 8D Si on peut contrôler le tracé de l’image, il y a quand même quelque chose qui part encore bien en sucette : les couleurs et les lumières. Stable Diffusion ne sait clairement pas quoi faire de l’information sabre laser, il m’en met partout, dans tous les sens, voir même rend des parties du corps de Dark Vador elles-même lumineuses et les résultats peuvent se montrer parfois… saugrenus. Comment qu’on fait pour résoudre ce problème ? Citer TGCM Comics (Plateforme BD en cours de développement) : https://tgcm-comics.blogspot.comSite : https://www.suiseipark.comDiscord : https://discord.gg/ZMyu2Ky "To boldly go where no man has gone before" Partager ce message Lien à poster Partager sur d’autres sites More sharing options...
Suisei 5,259 Posté(e) 13 août 2023 Image vers image et ControlNet Jusque là, nous avons utilisé ControlNet avec le mode texte vers image, mais on peut aussi l’utiliser avec le mode image vers image. Voici le schéma à nouveau modifié. Désormais, nous avons deux images d’entrée : celle de ControlNet qu’on utilisait déjà avant, mais aussi l’image d’entrée de Stable Diffusion du mode image vers image. C’est cette seconde image qui servira à imposer la palette de couleurs. Pour illustrer le fonctionnement, on va faire un petit essai. Je vais prendre un dessin pour l’entrée de ControlNet et une image qui n’a rien à voir pour l’entrée de Stable Diffusion pour bien voir comment chacune des image influence le résultat. Prompt : portrait of a woman with long black hair A gauche, une version vectorisée d’un de mes dessins réalisés pour le challenge numéro 15, à droite, une photo de bougie random. Étant donné qu’on se trouve dans le mode image vers image, on dispose de l’option de force de la transformation. Plus la valeur de cette option est basse, plus le résultat est fidèle à l’image d’entrée de Stable Diffusion et plus cette valeur est élevée, plus le résultat transformé en suivant les contraintes de l’image d’entrée de ControlNet. Voici un échantillon de résultats avec des valeurs de force différentes. Une autre série de tests avec le même dessin et un dégradé peint à l’arrache. Et les résultats : J’ai exagéré avec mes images d’entrée qui jouent le rôle de palette de couleur, mais vous noterez que ça fonctionne : le dessin impose les formes, l’image d’entrée du mode image vers image impose les couleurs. Bon, et si on faisait un essai avec notre Dark Vador ? 🙂 Je reprends le même dessin d’entrée qu’avant et je l’associe à une petite peinture que j’ai réalisée rapidement sur Procreate (une petite heure environ, j’aurais peut-être pu faire quelque chose d’encore moins fini). Et voici un échantillon des résultats que j’ai obtenus avec divers modèles et diverses forces de filtrage. C’est tout de même vachement mieux sans être parfait. L’IA est encore paumée avec les petits détails tels que les mains, mais au moins elle ne nous colle plus de sabres laser n’importe où et surtout là où on ne lui a pas demandé. Il y a moyen d’utiliser les IA comme un assistant de finition pour travailler plus vite. C’est bien joli tout ça, mais c’est encore loin de faire des illustrations finies satisfaisantes. Essayons d’aller plus loin. Citer TGCM Comics (Plateforme BD en cours de développement) : https://tgcm-comics.blogspot.comSite : https://www.suiseipark.comDiscord : https://discord.gg/ZMyu2Ky "To boldly go where no man has gone before" Partager ce message Lien à poster Partager sur d’autres sites More sharing options...
Suisei 5,259 Posté(e) 13 août 2023 Proposition de workflow Comme pour l’affiche de Vidau’Bulles que je vous avais présentée il y a quelques mois, on va partir sur l’idée de filtrer l’image petits morceaux par petits morceaux et de remonter le tout. On va partir de l’une des images générées, celle-ci : Je l’agrandis un bon coup à l’aide d’un modèle open source qui est utilisable via cette interface : https://replicate.com/jingyunliang/swinir Ou en l’installant en local, chez soi, si on sait bricoler avec Python. Je découpe certaines parties de l’image que je veux retravailler. Comme ceci. J’ai aussi découpé mon lineart de la même façon. J’ai aussi découpé quelques morceaux du body kun pour en tirer des cartes de profondeur avec ce modèle là : https://replicate.com/cjwbw/midas Corriger les mains avec des cartes de profondeur est une technique couramment utilisée chez les utilisateurs de Stable Diffusion. Bras : darth vader arm, open hand Main : darth vader hand, open hand, glove Les mains, c’est toujours délicat, mais en faisant vraiment un gros plan et en faisant plusieurs essais on peut obtenir des résultats à peu près correct qu’on pourra combiner. Casque : portrait of darth vader, helmet, mask Le casque, ça marche bien, mais les différents modèles semblent avoir un mal fou avec le masque. Du coup, j’ai fait un gros plan supplémentaire sur le masque. Masque : darth vader mask Bras qui tient le sabre laser : darth vader arm, hand holding light saber Main qui tient le sabre laser : darth vader hand holding light saber Alors là, comme le manche du sabre laser était très imprécis et se limitait à un cylindre, pour améliorer le rendu, j’ai récupéré un sabre laser sur sketchfab et j’en ai tiré un lineart avec le grease pencil dans Blender. Le modèle 3D est téléchargeable ici : https://sketchfab.com/3d-models/darth-vaders-light-saber-0193bbb4294e489a88ac88c84030443a Les résultats : Mouais… La main c’est pas ça. ¬¬ Mais il y a quelques manches qu’on va pouvoir récupérer. Jambe arrière : darth vader leg, boot Hum… Y’a quelques trucs très… Chelou… Je vous laisse inspecter la mosaïque de plus près. ¬¬ Jambe avant : darth vader leg, boot Bon, je sais pas c’qu’il a foutu ce coup-ci, mais il a eu un mal fou à me sortir correctement le motif matelassé de la combinaison de Dark Vador. 😕 Va falloir bricoler en combinant plusieurs images.. Tronc : darth vader bust Cape : large black silk drape Ensuite, j’ai monté les images qui me paraissaient pertinentes dans Affinity Photo et ça donne ce gloubiboulga. Et oui, y’a du boulot en perspective. J’ai peint des masques pour ne plus voir les bords carrés et j’ai utilisé des calques de réglage et quelques coups de pinceaux pour harmoniser à peu près les couleurs. Et j’ai envoyé tout ça dans Procreate pour faire un gros paintover. Les pièces électroniques étant encore très vitriolées et nécessitant des retouches lourdes, j’ai finalement regénéré des images avec Stable Diffusion en zoomant sur ces pièces pendant que je faisais mon paintover sur le reste dans Procreate. electronic panel with luminous buttons and LEDs electronic box with luminous buttons and LEDs Je les ai intégrés à leur tour et voilà, ENFIN, le résultat final. x) Bon… Ben… C’est du photobahsing ce procédé, hein, ni plus, ni moins. Pour l’instant ma méthode n’est pas rapide. Ça aurait été peut-être aussi vite de tout faire à la main. J’ai pas chronométré. Je tâtonne encore et lance des générations en trop grande quantité pour couvrir une large gamme de valeurs des paramètres. Ça a un coût en temps. Je pense qu’avec tous les bancs de tests je devrais pouvoir, à l’avenir, cibler un peu plus mes valeurs de paramètres et générer moins d’images (il devrait y avoir moyen de diviser le nombre de générations par 2 ou 3) pour travailler plus vite. Cela dit, cela m’a quand même permis d’obtenir des textures et des effets de matière que je n’aurais peut-être pas eu la patience de soigner aussi bien à main levée (les gros digital painting de plusieurs dizaines d’heures, c’est pas ce que je préfère). Et j’ai appris des choses aussi : outre le fait que j’ai une meilleure idée de la fourchette d’utilisation pertinente des paramètres, j’ai constaté qu’un lineart bien soigné pouvait aider l’efficacité des générations (là je l’ai fait à l’arrache) et qu’il ne fallait vraiment pas hésiter à zoomer très fort sur les petits éléments et les générer séparément avec des prompts simples. Bref, je ferai probablement d’autres tests, mais je m’efforcerai de faire des compo plus recherchées et moins banales que celle-là. Faudra que je teste sur des environnements aussi. Moralité : Le travail reste le seul moyen d’obtenir des images maîtrisées. Sinon c’est pochette surprise avec salade de doigts et personnages vitriolés. 1 Citer TGCM Comics (Plateforme BD en cours de développement) : https://tgcm-comics.blogspot.comSite : https://www.suiseipark.comDiscord : https://discord.gg/ZMyu2Ky "To boldly go where no man has gone before" Partager ce message Lien à poster Partager sur d’autres sites More sharing options...
Suisei 5,259 Posté(e) 13 août 2023 (modifié) D’autres bancs de test j’ai mis plusieurs mois avant de revenir poster quelque chose ici sur le sujet, ceci s’explique par le fait que j’ai réalisé une grosse tripoter de bancs de test. Une très très grosse (sûrement trop au point que ça ressemble plus à une collectionnite autistique qu’à un banc de test). Le premier banc de test automatisé que je vous avais proposé, c’est de la petite bière à côté. x) Le premier des nouveaux bancs de test, je l’ai fait quand j’ai découvert ControlNet mais que je ne savais pas encore qu’on pouvait l’appliquer au mode image vers image il est donc focalisé sur le mode texte vers image. Il contient des sujets et des modèles variés. J’ai testé une astuce pour en tirer des illustrations en noir et blanc… Pas très convaincant. x) https://suiseipark.com/Demos/AI/controlNet/index.html Ensuite, quand j’ai découvert qu’il était possible de faire du image vers image avec ControlNet, j’ai testé pour voir si on pouvait utiliser cette technique pour texturer, casser un rendu 3D, sans pour autant perdre la forme des objets de l’image. https://suiseipark.com/Demos/AI/ImgToImg-Primitives/index.html Et la réponse est oui ! Voici un petit échantillon. Puis au fur et à mesure que des idées de workflow me sont venues en tête, je me suis décidée à faire un banc de test par thème pour voir les modèles les plus adaptés selon le type de sujet que je voulais rendre ou le type de style. Ces bancs de test comprennent du texte vers image et du image vers image et ceci avec ou sans ControlNet. Pour les décors naturels : https://suiseipark.com/Demos/AI/nature/index.html Pour les personnages : https://suiseipark.com/Demos/AI/characters/index.html Pour les asset de jeux vidéo : https://suiseipark.com/Demos/AI/gameItems/index.html Pour les mains : https://suiseipark.com/Demos/AI/hands/index.html Même s’il y a déjà de très nombreuses images, notez que ces bancs de test sont encore incomplets (à mon sens) et que je continuerai de les enrichir. Il manque aussi celui sur les décors architecturaux que je n’ai pas encore commencé. Comme je me sens plus à l’aise et plus efficace pour faire mes brouillons et mes recherches au tradi, j’ai poussé l’idée jusqu’à faire passer en entrée des dessins réalisés avec du bic, des feutres à l’eau ou encore des Promarkers. J’ai pas encore testé le pastel gras, mais c’est dans un coin de ma tête. Bref ! Loin de me faire poser le crayon, mes recherches pour intégrer l’IA dans mes workflow m’incitent plutôt à revenir carrément au tradi ! x) Voici quelques extraits des bancs de test. Un arbre au bic pour voir si on peut en tirer un noir et blanc sympa Dessin original : Sorties : Un arbre au bic et au feutre à l’eau que j’ai passé en niveau de gris pour voir comment ça pouvait influencer les modèles noir et blanc. Dessin original Sorties : Des trucs au bic et aux feutres à l’eau de supermarché Dessin original : Sorties : Dessins originaux (items de jeu) Sorties : Des trucs fluo à coup de Stabilo Boss Dessin original : Sorties : Je trouve qu’en plus ça donne des idées de variantes de palette intéressantes. Des trucs aux Promarkers Dessin original : Sorties : Dessin original : Sorties : Conclusion Bon, et bien voilà, c’est la fin de cette nouvelle tripotée de tests. Que conclure ? Et bien que les nouvelles possibilités ouvertes par ControlNet m’ont motivée à renouveler mon matos tradi… Vous avez bien lu ! 8D Mes dernières expériences me confortent dans l’approche que j’avais déjà abordée il y a quelques mois : utiliser les IA comme un super filtre Photoshop, un assistant de finition. On peut s’en servir pour générer des textures à utiliser pour du photobashing ou dans la 3D. J’ai vaguement commencé des tests en ce sens. Du coup, comment j’envisage ma démarche artistique à l’avenir ? Et bien voir si j’arrive à passer moins de temps sur les finitions avec ces astuces et consacrer ce temps économisé à bosser les fondamentaux plus à fond (dessin, compo, théorie des couleurs… ), à réfléchir davantage mes compo et les styles que j’ai envie de développer. Et comme en plus ça marche très bien pour filtrer du tradi tout ça, j’en profite même pour revenir à mes vieilles techniques d’adolescente à savoir ses bons vieux feutres à l’eau ! Ne jamais sous estimer le matériel d’écolier. Jamais ! Et mentalement, me replonger dans cette époque sans pression, ça me fait un bien fou ! Bon, c’est intéressant pour des illustrations abouties qui exigent un gros travail de finition ou pour des assets de jeu, mais pour la BD qui nécessite un travail moins fini, de produire très vite, de la cohérence d’une case à l’autre et pire encore quand il s’agit d’un style plutôt typé ligne claire, là ça ne marche pas du tout. Il y en a qui ont essayé, ils ont eu des problèmes (vous connaissez la suite du sketch ? ). Le temps de multiplier les essais et d’en sélectionner un qui convienne (s’il y en a un qui convient ! ) j’ai largement le temps de finir le travail au jus de coude (IA incultes même pas fichues de savoir ce qu’est un klingon ou un cardassien). Mes exercices d’anatomie quotidiens et la 3D restent mes meilleurs alliés. Et puis depuis le temps que je gribouille, même s’il est pas révolutionnaire, j’ai quand même un petit style bien perso. Et comme chuis inconnue et bien c’est absolument impossible de le reproduire. Ni de près, ni de loin, ni Midjourney, ni Stable Diffusion, ni Dall-E… … Va falloir que je fabrique mon propre modèle spécialisé dans mon style… Pour la suite de l’investigation, voici ce que je prévois : -Reparler de ma petite IA d’encrage, parce que ce projet là aussi progresse ! 😄 -Enfin me secouer les puces pour développer ma propre interface d’intégration de Stable Diffusion adaptée à mon workflow typé photobashing. -Étudier la question de la création de son propre modèle customisé de Stable Diffusion. -Créer d’autres filtres neuronaux (comme y disent chez Adobe). -Surveiller l’évolution de Stable Diffusion XL. Pour finir, je vous envoie quelques liens de tutos et d’actu histoire que vous puissiez vous aussi surveiller l’évolution du bouzin. Les subreddit où les utilisateurs de Stable Diffusion échangent sur les divers aspects techniques : https://www.reddit.com/r/StableDiffusionInfo/https://www.reddit.com/r/StableDiffusion/ Quelques chaînes Youtube spécialisées : https://www.youtube.com/@aiandpixels/videos (En Français)https://www.youtube.com/@ArtificialisCode/videos (En Français)https://www.youtube.com/@Aitrepreneur (En Anglais) Au final, en explorant tous ces tutos et les échanges de ces communautés, il est amusant de constater que les “artistes IA” qui souhaitent faire un travail un tant soit peu sérieux se retrouvent obligés de mettre les mains dans Photoshop, dans Blender et même dans le code Python pour réussir à faire ce qu’ils veulent. (MidJourney, c’est joli, mais c’est la pochette surprise à chaque fois. On maîtrise rien. Et ça sait toujours pas faire d’interaction entre personnages.) Ils sont obligés d’apprendre de vraies compétences en fin de compte. La technologie a encore besoin de mûrir parce que je les vois régulièrement demander sur Reddit si telle ou telle fonctionnalité existe et souvent, ce n’est pas encore le cas. Ils se sentent donc encore limités par l’existant. L’art du prompt, ça va 5 minutes, mais c’est insuffisant. En tout cas ça remplit pas mes cahiers des charges à moi. Moralité : continuez de bosser vos fondamentaux. Vous allez en avoir besoin. 😛 Modifié 8 septembre 2023 par Suisei Ajout d'une info 4 1 Citer TGCM Comics (Plateforme BD en cours de développement) : https://tgcm-comics.blogspot.comSite : https://www.suiseipark.comDiscord : https://discord.gg/ZMyu2Ky "To boldly go where no man has gone before" Partager ce message Lien à poster Partager sur d’autres sites More sharing options...
mymdessine 2,500 Posté(e) 16 août 2023 Encore un sacré boulot et un compte rendu topissime ('vient de revoir Kung Fu Panda, désolée 😆). Grand, GRAND merci à toi ! J'avoue que j'ai eu le sentiment d'être au pays des ovnis en me baladant sur civitai.com, en me demandant "mais en fait c'est quoi, ces modèles, on télécharge des images ? des prompts ? gne ?". En tout cas, ton cheminement et tes conclusions à ce jour sont surprenants, c'est assez rigolo de finir par revenir au tradi et ressortir ses feutres 😄 . Encore chapeau pour cette super analyse !! 2 Citer La vie est une bande-dessinée ! Partager ce message Lien à poster Partager sur d’autres sites More sharing options...
Suisei 5,259 Posté(e) 23 août 2023 Hello ! Merci @mymdessine, c’est toujours un plaisir de partager mes petites découvertes. 😄 Ouais, en effet, quand on découvre le monde de Stable Diffusion, c’est pas évident de s’y retrouver. x) Sur civitai, on trouve majoritairement des modèles à télécharger. Il faut ensuite les installer dans une interface graphique comme Automatic1111 (la plus populaire en ce moment) ou ComfyUI (qui gagne de plus en plus de terrain). La difficulté, c’est qu’il y a en de plusieurs types. Il y en a qui sont complets et peuvent être utilisés tout seul, d’autres qui doivent être utilisés en combinaison avec un modèle de base. Bref ! Pas étonnant que MidJourney reste plus populaire malgré ses limites. La liberté de Stable Diffusion s'acquiert au prix d’une courbe d’apprentissage assez raide. @Laurence Veron-Dor, Je n’ai toujours pas réussi à faire fonctionner Automatic1111 sur Linux, mais j’ai réussi avec une autre interface (qui me plait davantage à titre personnel) : ComfyUI. ComfyUI est beaucoup plus permissif sur les numéros de version de Python et des modules Python. J’en profite pour proposer un petit tuto d’installation à tout le monde. ComfyUI Si vous êtes habitués à Blender et son système nodal, vous ne serez pas dépaysés. En effet, ComfyUI propose un système nodal. Ça ressemble à ça : Alors pourquoi un système nodal ? Et bien parce que Stable Diffusion permet de faire des choses plus complexes que simplement générer une image à partir d’un prompt : on peut contraindre la génération avec des options supplémentaires comme ControlNet, passer les image d’entrée par des pré-traitement, passer les images de sortie par des post-traitements… En fait, les possibilités sont à peu près infinies. L’idée est donc de programmer tout un workflow en fonction de ses besoins. Sous Windows Sous Windows, c’est simple, il y a un exécutable portable à télécharger sur cette page :https://github.com/comfyanonymous/ComfyUI Vous allez trouver une archive du nom de ComfyUI_windows_portable_nvidia_cu118_or_cpu.7z dans votre dossier de téléchargements. Ouvrez la avec votre logiciel de désarchivage préféré (Express Zip par exemple). Vous obtiendrez un dossier ComfyUI_windows_portable_nvidia_cu118_or_cpu à l’intérieur duquel vous trouverez un dossier ComfyUI_windows_portable à l’intérieur duquel vous trouverez 2 lanceurs : run_cpu.bat et run_nvidia_gpu.bat Si vous avez une carte graphique NVIDIA récente, double cliquez sur run_nvidia_gpu.bat, sinon, double cliquez sur run_cpu.bat. Une console DOS va s’ouvrir et va vous proposer d’ouvrir un lien. Cliquez sur votre navigateur préféré dans la liste des programmes proposés. Et voilà ! Une interface avec quelques nœuds par défaut s’ouvre dans votre navigateur. Notez que comme pour Automatic1111, les modèles ne sont pas fournis il vous faut donc les télécharger et les installer vous-même. Vous pouvez en télécharger sur HuggingFace ou civitai. Vous pouvez, par exemple, télécharger le modèle de base de la version 1.5 de Stable Diffusion, ici : https://huggingface.co/runwayml/stable-diffusion-v1-5/tree/main Et télécharger le fichier v1-5-pruned-emaonly.ckpt Ensuite, dans le dossier ComfyUI_windows_portable où vous avez trouvé les 2 lanceurs, il y a un dossier models qui contient un dossier checkpoints. C’est ici qu’il faut déposer les modèles de type ckpt. Sous Linux Sous Linux il faut mettre un peu plus les mains dans le cambouis, mais c’est pas méchant. On va partir de zéro dans le cas où vous êtes novice. Vous commencez par ouvrir une fenêtre de terminal. Si vous n’avez pas installé Python, entrez cette commande : sudo apt-get install python3.10 Ceci installera la dernière version disponible de python 3.10. Ça fera l’affaire. Ensuite, il faut installer le gestionnaire de version git avec cette commande : sudo apt install git-all Au cas où vous voudriez travailler sur plusieurs projets python qui exigent des versions de modules différentes, il va falloir que vous puissiez créer des environnements virtuels. Pour cela il faut installer l’utilitaire virtualenv avec cette commande : pip install virtualenv Maintenant, vous pouvez vous positionner dans le dossier où vous voulez installer ComfyUI avec une commande de cette forme : cd chemin/de/mon/dossier Il faut récupérer le code source de ComfyUI avec cette commande : git clone https://github.com/comfyanonymous/ComfyUI.git Vous avez dû récupérer un dossier nommé ComfyUI. Entrez dedans avec la commande qui suit : cd ComfyUI Créez un environnement virtuel venv : virtualenv venv Activez le (il faudra faire cette commande à chaque fois que vous voudrez lancer ComfyUI) : source venv/bin/activate Ensuite, on installe les modules python nécessaires avec ces 2 commandes : pip install torch torchvision torchaudio pip install -r requirements.txt Et enfin vous pouvez lancer ComfyUI avec cette commande python main.py Si vous n’avez pas de carte graphique NVIDIA assez récente, utilisez cette commande : python main.py –cpu Un message vous indique une URL à entrer dans la barre d’adresse de votre navigateur préféré : http://127.0.0.1:8188 Et voilà ! Comme sur Windows, les modèles ne sont pas fournis, il vous faudra donc les télécharger et les installer vous même. Dans le dossier ComfyUI, vous pouvez trouver le dossier models qui contient le dossier checkpoints où il vous faut déposer les modèles de type ckpt. C’est supposé fonctionner sur Mac aussi avec une installation quasi identique à Linux, mais j’ai rencontré un bug à la con au lancement. J’ai pas le courage de passer des heures à débuguer ça à l'instant. J’y reviendrai peut-être plus tard. Utiliser ComfyUI Je n’ai pas été au-delà des nœuds proposés par défaut étant donné que je code ma propre interface adaptée à mes besoins. Du coup, je vous propose une chaîne Youtube qui a fait quelques tutos sur cette interface pour que vous puissiez tester un peu plus le bidule. Péguy Diffuser Bon, j’en parle vite fait, ça y est, mon petit projet d’interface graphique pour Stable Diffusion est en cours de développement. Le premier jet de l’interface est fonctionnel. Maintenant il faut que je la branche à Stable Diffusion. Le boulot le plus délicat sera sans doute de rendre ça installable par n’importe qui sur son ordi perso. Voilà ce à quoi ça ressemble (je changerai sûrement le design pour quelque chose de sombre puisque c’est la norme actuellement) : L’idée est de pouvoir appliquer facilement le workflow que je vous ai déjà présenté : avec un système de calques et la possibilité de découper des petits carrés dans les images pour filtrer de petits morceaux et de pouvoir exporter les résultats dans un fichier psd qu’on aura juste à ouvrir dans son éditeur d’image préféré pour le retoucher et repeindre par dessus. A terme je vais essayer de faire en sorte qu’on puisse déjà dessiner et peindre un peu directement dedans. Voilà voilà pour aujourd’hui ! Bonne soirée tout le monde ! 😄 2 Citer TGCM Comics (Plateforme BD en cours de développement) : https://tgcm-comics.blogspot.comSite : https://www.suiseipark.comDiscord : https://discord.gg/ZMyu2Ky "To boldly go where no man has gone before" Partager ce message Lien à poster Partager sur d’autres sites More sharing options...
3-1415 2,428 Posté(e) 27 août 2023 Super intéressant et boulot impressionnant!! merci 1 Citer CHALLENGE #14 : WIP forum + Participation Partager ce message Lien à poster Partager sur d’autres sites More sharing options...
Spartan de DPS 121,995 Posté(e) 21 septembre 2023 En effet merci de continuer à tester tout ça pour voir où ça peut mener. C'est super intéressant ! Je trouve que tes avis personnels rajoutent vraiment un plus à chaque fois. 2 Citer Formateur sur DPS et co-fondateur avec les cochons fondateurs de DigitalPainting.school, également la personne qui doit supporter Léonardus quotidiennement. A votre service. Partager ce message Lien à poster Partager sur d’autres sites More sharing options...
Suisei 5,259 Posté(e) 21 mars Hello, la compagnie ! Je viens vous donner quelques nouvelles de mes recherches et expérimentations sur le thème de l’IA. Comme promis, je reviens sur ma petite IA d’encrage. Pour rappel, il s’agit d’un modèle d’IA que je code et entraîne moi-même avec mes propres dessins dans le but d’avoir un automate qui transforme mes crayonnés en dessins encrés. La dernière fois que je vous en ai parlé, voici ce que ce projet était capable de faire. Image d’entrée Image de sortie Pas encore exploitable. Il y a encore beaucoup de traces et des traits de construction qui trainent. Par ailleurs, à l’époque, le programme ne comportait qu’un seul modèle d’IA qui n’était capable de filtrer l’image que par petites tuiles de 512 pixels par 512 pixels. En gros, l’image d’entrée était découpée en petite tuiles, comme ceci : Chaque petite tuile était filtrée indépendamment des autres par le modèle d’IA, comme ceci : Et pour finir, le programme réassemblait toutes les tuiles pour donner l’image finale. Le problème avec cette méthode, c’est que l’IA n’a pas de vision d’ensemble de l’image et que lorsqu’une ligne se balade sur plusieurs tuiles elle peut avoir des changements d’épaisseur brutaux sur les frontières entre les tuiles. Pour résoudre ce problème, j’ai cherché des solutions pour pouvoir traiter l’image dans son ensemble quelque soit sa taille alors qu’un modèle d’IA n’accepte qu’un seul format en entrée et sachant que plus les images traitées sont grandes, plus les modèles sont gros, plus ils sont longs à entraîner. Voici comment j’ai procédé pour améliorer mon IA. Amélioration des données En ce qui concerne les traits de constructions et autres traces qui traînent, là, ce n’était pas le modèle qu’il fallait modifier, mais les données d’entraînement. A force d’essais, j’ai constaté que le fait d’inclure les à-plat de noir et les textures perturbait plus l’IA qu’elle ne l’aidait. Elle ne savait pas trop si dans une surface couverte de crayon elle devait faire un à-plat ou repasser chaque grain de carbone et laisser libre les petites zones moins couvertes. Comme ceci par exemple. Et du coup, ça l’encourageait aussi à repasser les traits de construction. J’ai donc renoncé à prendre en compte les à-plat et les textures sachant que de nos jours, dans les logiciels comme Clip Studio Paint et consort, il y a des outils très puissants et rapides pour faire du remplissage automatique et qu’il y a des tas de brushes fantastiques pour faire de la texture. Le nouveau projet d’IA se contente donc de mettre au propre le lineart (ce qui est la partie la plus longue à faire à la main). Au final, j’ai viré de mes données d’entraînement toutes les images qui contenaient des à-plat et des textures. Amélioration du modèle Là, pour le coup, j’ai bien fait de beaucoup bidouiller avec Stable Diffusion parce que ça m’a permis d’apprendre une chose importante : une IA n’est pas obligée de ne comporter qu’un seul modèle. Elle peut en avoir plusieurs qui remplissent chacun un rôle différent. L’autre chose que j’ai apprise, c’est qu’on n’est pas obligé de n’envoyer qu’une seule image en entrée. On peut en empiler plusieurs qui contiennent des informations différentes. Forte de ces nouvelles connaissances, j’ai donc construit une nouvelle architecture composée de plusieurs modèles pour mon IA. Voici le schéma de l’architecture actuelle. (N'hésitez pas à cliquer dessus pour voir en grand.) 1 : Pré-Traitement Il s’agit d’un programme de traitement d’image ordinaire qui formate l’image d’entrée pour qu’elle soit utilisable par les modèles d’IA. Il applique un contraste, ajoute des marges pour que l’image soit un carré et la redimensionne en 2 versions : une de 512x512 pixels, l’autre de 1024x1024 pixels. 2 : Premier modèle Le premier modèle d’IA prend le crayonné de 512x512 pixels en entrée et effectue un premier nettoyage. Il fournit en sortie une image de même taille. 3 : Premier upscaler Vous noterez qu’il prend en entrée 2 images : celle générée par le premier modèle, mais aussi le crayonné de 512x512 pixels qu’on a déjà mis en entrée du premier modèle. Alors pourquoi je fais ça ? Et bien parce qu’il y a une perte d’information dans le passage du premier modèle qui pourrait faire perdre énormément de détails tout au bout du pipeline. L’ajouter en entrée du modèle suivant permet de conserver ces détails en mémoire. C’est une méthode employée au sein même de certains réseaux de neurones. L’image fournie en sortie du premier upscaler fait 1024x1024 pixels. 4 : Affinement Ce modèle effectue un nettoyage et fournit une image de même taille qu’en entrée. Il prend en entrée l’image de sortie du premier upscaler ainsi que le crayonné de taille 1024x1024 pixels. 5 : Second upscaler Ce modèle effectue un deuxième agrandissement et fournit une image de 2048x2048 pixels. Il prend en entrée l’image de sortie du nettoyeur de l’étape 4 ainsi que le crayonné de taille 1024x1024 pixels. Voilà où en est actuellement mon architecture. Elle n’est pas encore tout à fait complète. Je souhaite ajouter d’autres étapes de nettoyage et d’agrandissement et un postprocessing, mais les résultats ne sont pas probants pour l’instant et je souhaite essayer d’améliorer la qualité des modèles déjà existants avant en enrichissant les données avec de nouveaux dessins. Voilà ce que ma nouvelle architecture est capable de faire actuellement. C’est encore loin d’être parfait, mais c’est beaucoup plus propre ! Pour l’instant je n’estime toujours pas cette IA assez quali pour réellement encrer mes dessins. Ceci étant dit, je lui ai tout de même trouvé un usage en l’état. C’est très bien comme automate de nettoyage de scan de crayonné pour ensuite en imprimer une copie pour faire une colo tradi dessus, ce que j’ai fait pour le Secret Santa 2023. Bon, là c’était un niveau de gris que j’ai utilisé comme calque de colo indirecte ensuite, mais vous voyez l’idée. Pour l’heure, étant donné que j’ai réduit la quantité de données d’entraînement en enlevant les à-plat et les textures, je pense que la prochaine étape pour améliorer ce projet va être de continuer de faire des dessins et de les encrer à la mimine pour enrichir les données. x) Petite parenthèse sur Stable Diffusion XL J’avais dit que je surveillerai cette nouvelle version de Stable Diffusion. Je l’ai testée et la review va être vite vue : décevante. x) Le point positif : Le modèle de base de SDXL donne des images plus quali que SD 1.5 et SD 2.1 avec une plus grande variété de styles, mais les points positifs s’arrêtent là. Les points négatifs : Les modèles sont plus gros, ils occupent donc plus de mémoire et réclament plus de ressources à l’exécution. Les taux de transformation en mode Image to Image ne fonctionne pas de façon linéaire et agit de façon complètement folklorique à partir d’une certaine valeur, ce qui empêche les réglages fins. Très peu de modèles ControlNet sont disponibles comparé à SD 1.5. Les modèles customisés sont moins nombreux et moins diversifiés. Le point neutre : Les modèles customisés de SDXL ne sont ni mieux ni moins bien que ceux de SD 1.5. Moralité, j'ai mis SDXL à la poubelle et une majorité d’utilisateurs de Stable Diffusion reste encore sur SD 1.5. Il y a une v3 de Stable Diffusion qui est sur le point de sortir ainsi que Stable Cascade supposé être plus rapide. Je vais continuer de surveiller tout ça. Voilà voilà ! La prochaine fois je vous présenterai un usage détourné de Stable Diffusion que j’ai inclus dans un workflow classique de digital painting pour m’assister dans certaines tâches répétitives. En gros, ça fonctionne comme les filtres artistiques de Photoshop mais en plus élaboré et plus diversifié. Bonne journée à tous ! :D 1 2 Citer TGCM Comics (Plateforme BD en cours de développement) : https://tgcm-comics.blogspot.comSite : https://www.suiseipark.comDiscord : https://discord.gg/ZMyu2Ky "To boldly go where no man has gone before" Partager ce message Lien à poster Partager sur d’autres sites More sharing options...
3-1415 2,428 Posté(e) 24 mars Mon petit retour d'expérience sur les IA si ça peut en aider certains : MIDJOURNEY : c'est la premier app que je testais il y a plus d'un an. En pleine controverse sur les IA, je voulais savoir de quoi on parlait exactement. J'étais bien sur impressionné par la performance technologique, mais très déçu par le manque de contrôle sur l'image finale. En gros le "text to image" c'est pas pour moi qui souhaite matérialiser MON idée au plus prêt de MA vision. Je veux contrôler la composition, le design, la pause, etc... je veux explorer et approfondir ma vision et pas recevoir une "interprétation de la machine" J'y ai quand même vu l'opportunité dans le cadre de mon projet de character design WUNDERLAND-1940 de générer de la matière à photoshoper pour mes backgrounds. Un tache secondaire fastidieuse qui s'en retrouvait du coup bien simplifiée, me laissant plus de temps pour travailler sur l'essentiel. STABLE DIFFUSION Honnêtement j'ai juste passé le stade de l'install....et j'ai réalisé à quel point c'est un système qui demande vraiment de "mettre les mains dans le cambouis" pour obtenir des résultats intéressants... J'ai abandonné car j'ai découvert : VIZCOM une révélation! Place au "image to image" and même au "draw to image" (meme si honnêtement le draw se fera plutôt dans photoshop avant de balancer dans Vizcom). Fini des histoires de prompts qui ne sont plus essentiels mais juste additionnels. L'application se destine plus précisément au design de produits (voitures, baskets...), mais peut etre complètement utilisée pour tout autres sujets. On donne une input bcp plus précise et contrôlée de ce qu'on veut, et l'IA va traiter et upgrader graphiquement à la manière d'un filtre photoshop. La aussi par contre il ne faut pas s'imaginer qu'on va réaliser quelquechose de "fini" directement dans l'app, >> c'est à combiner avec un gros boulot de photoshop. On génère là aussi de la matière > puis photoshop pour assembler/composer/affiner > puis re vizcom pour affiner > puis photoshop pour finaliser. J'ai passé 80% de mon temps dans le mode "Refine" qui donne du photo realisme. Sert particulièrement pour les personnages, leur colorisation, les vêtements (superbes drapés!!). Génial pour explorer plein de variantes en donnant plus ou moins de liberté à l'IA. Beaucoup moins fort pour les décors/paysages... que j'ai du coup tenté d'envoyer dans : MAGNIFIC.AI image to image. je suis mitigé. Des résultat inégaux selon les sujets. Bof pour les personnages. Très efficaces pour les décors. Par contre là on est vraiment plus dans l'amélioration d'une image plutôt qu'une création. Au final quelques jolis résultats mais tres franchement bien trop cher pour ce que c'est. LEONARDO J'ai donc tenté Léonardo (au lieu de repartir sur MidJourney) que je n'avais pas encore testé pour essayer d'améliorer les résultats de Vizcom pour moins cher que Magnific.ai. Le résultat est vraiment pas mal. Là ou on sent que la database de Vizcom est tres "asiatique" et "moderne", Léonardo ramène un traitement plus Occidental et moins marqué par une temporalité moderne. Ce que je trouvais nécessaire pour mon projet qui s'inscrit en pleine WW2. Aujourd'hui je suis donc dans un process de 70% Photoshop + 25% Vizcom + 5% Leonardo. Cela me permet d'avoir un contrôle complet de mes personnages, leur pose, leur design,...avec un rendu au delà de mon niveau de digital painting. 2 Citer CHALLENGE #14 : WIP forum + Participation Partager ce message Lien à poster Partager sur d’autres sites More sharing options...
3-1415 2,428 Posté(e) 24 mars Je suis pas sur que c'était le bon endroit pour poster ça 😅 J'aurai peut etre du faire un post dédié à part vu l'orientation que prends ta démarche vers une IA encreuse!! Mais je suis curieux de savoir si tu as essayé Vizcom? Sur la base de ton croquis un première passe de "rendering" donne ça et en 5 minutes d'inpainting pour rajouter l'eau et refine pour le realisme ça donne ça Des bases intéressantes pour du paintover 🙂 1 Citer CHALLENGE #14 : WIP forum + Participation Partager ce message Lien à poster Partager sur d’autres sites More sharing options...
Suisei 5,259 Posté(e) 25 mars Hello @3-1415 ! Y'a pas de soucis. C'est bien que tu partages ton expérience aussi que ce soit ici ou dans un autre sujet. Comme ça je me sens pas toute seule à explorer les possibilités et les limites de cette techno. x) En tout cas, je partage les mêmes exigences que toi : la pochette surprise du mode text to image ne me convient pas. Je veux aussi contrôler et contraindre l'IA avec mon idée, pas l'inverse. Dans tous les projets de ce niveau d'exigence, l'IA ne pourra servir, au mieux, que d'assistant pour accélérer/améliorer certaines tâches répétitives, mais c'est tout. Pour te répondre, non, je n'ai pas testé Vizcom, tout simplement parce que je suis en train de développer un projet concurrent basé sur Stable Diffusion sous forme d'application à utiliser en local et que mes petits scripts Python le font déjà sans interface. Voilà à quoi ça ressemble actuellement. Du Photoshop like en gros. Misère ! J'ai oublié de préciser que je voulais un mec... J'ai envie d'être indépendante d'un service en ligne et de pouvoir disposer de la diversité de l'écosystème Stable Diffusion (modèles customisés/spécialisés plus adaptés à mon style ou au projet, fonctionnalités diverses, modes de contrôle divers). Il me reste à développer la possibilité de dessiner un croquis directement dedans (on peut déjà importer un croquis fait ailleurs), corriger quelques petits bugs à droite à gauche et surtout, sûrement le plus galère, rendre ça facile à installer pour le grand public afin de pouvoir distribuer une première version. Bref ! L'idée, c'est d'intégrer Stable Diffusion dans une appli qui ressemble vraiment à un logiciel de dessin et de ne pas embêter les utilisateurs avec un énième service/abonnement. Par contre, ça exigera une config assez costaude. Les modèles de Stable Diffusion réclament beaucoup de RAM et de VRAM. 2 1 Citer TGCM Comics (Plateforme BD en cours de développement) : https://tgcm-comics.blogspot.comSite : https://www.suiseipark.comDiscord : https://discord.gg/ZMyu2Ky "To boldly go where no man has gone before" Partager ce message Lien à poster Partager sur d’autres sites More sharing options...
3-1415 2,428 Posté(e) 25 mars Impressionnant!!! 😮 Et alléchant!!! Un Vizcom avec l'écosystème stable diff derrière!! En tout cas je suis à ta disposition si tu veux échanger, connaitre mon retour d'expe sur Vizcom (il y a bcp à dire...en tres bien et en moins bien comme l'ergonomie)...et pkoi pas tester quand tu auras besoin 😄 Citer CHALLENGE #14 : WIP forum + Participation Partager ce message Lien à poster Partager sur d’autres sites More sharing options...
Laurence Veron-Dor 11,617 Posté(e) 25 mars (modifié) Merci à toutes les 2 pour vos tests et vos retours sur vos projets. Bravo @Suiseipour tout ton travail de développement, c'est cool. De mon côté, pas trop eu le temps de m'occuper de tout ça, et pour ce qui est ducodage, mon niveau est trop faible, mais je reste à l'écoute. En particulier, ce que je recherche, c'est des générateurs d'images ou de textes gratuits qui ne nécessitent pas de se connecter, afin de pouvoir faire des essais avec des collègiens à mon boulot. Personnellement, je trouve plus sympa de faire moi-même les choses, que ce soit le DP ou la 3D, même si c'est de moindre qualité. D'une part parce que le processus créatif et "manuelle" m'intéresse, mais aussi parce que je veux que ça soit ce que j'ai en tête et pas ce que la machine me propose. Donc le plus de contrôle possible, comme l'évoque @3-1415. Là où l'IA peut vraiment être utile, c'est pour des parties moins créatives, comme l'encrage, effectivement, encore qu'il y a plusieurs façons d'encrer, ça reste très personnel, non ? Si j'ai bien compris @Suisei, tes modèles sont des encrages que tu as réalisés toi-mêrme ? Pour la 3D, ce serait plutôt des choses comme le rigging, sous Blender. Il ya déjà des outils, mais je ne crois pas que ce soit à base d'IA. Modifié 25 mars par Laurence Veron-Dor Citer Partager ce message Lien à poster Partager sur d’autres sites More sharing options...
Laurence Veron-Dor 11,617 Posté(e) 10 mai (modifié) Bonjour @Suisei@3-1415 J'ai un collègue qui aimerait générer une image précise en partant d'une photo d'une personne. Est-ce que Vizcom fait ça ? J'ai l'impression que ce n'est utilisable qu'avec des croquis. C'est pour s'amuser et il ne sait pas dessiner, donc il recherche un truc simple et gratuit de préférence. Ca pourrait aussi m'être utile quand je fais des ateliers sur l'AI avec des collégiens à mon boulot. D'ailleurs, si vous avez d'autres liens qui peuvent être bien pour les enfants et les ados, qui soient gratuits et même si possible sans besoin de se connecter (un peu comme Craiyon), ou des choses un peu plus pédagogiques mais quand même un peu sympas pour savoir comment fonctionne l'IA, je suis preneuse. J'ai trouvé machinelearningforkids, par ex, mais peut-être y a -t-il d'autres choses intéressantes, qui soient plus sur la génération d'image ou de texte. Modifié 10 mai par Laurence Veron-Dor Citer Partager ce message Lien à poster Partager sur d’autres sites More sharing options...
3-1415 2,428 Posté(e) 4 juin Le 5/10/2024 à 12:35 PM, Laurence Veron-Dor a dit : J'ai un collègue qui aimerait générer une image précise en partant d'une photo d'une personne. Est-ce que Vizcom fait ça ? Si c'est pour une pose oui, si c'est pour avoir une ressemblance de visage non. 1 Citer CHALLENGE #14 : WIP forum + Participation Partager ce message Lien à poster Partager sur d’autres sites More sharing options...
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.