Classement
Contenu populaire
Affichage du contenu avec la meilleure réputation le 03/25/2024 dans toutes les zones
-
7 points
-
5 points
-
Hello @3-1415 ! Y'a pas de soucis. C'est bien que tu partages ton expérience aussi que ce soit ici ou dans un autre sujet. Comme ça je me sens pas toute seule à explorer les possibilités et les limites de cette techno. x) En tout cas, je partage les mêmes exigences que toi : la pochette surprise du mode text to image ne me convient pas. Je veux aussi contrôler et contraindre l'IA avec mon idée, pas l'inverse. Dans tous les projets de ce niveau d'exigence, l'IA ne pourra servir, au mieux, que d'assistant pour accélérer/améliorer certaines tâches répétitives, mais c'est tout. Pour te répondre, non, je n'ai pas testé Vizcom, tout simplement parce que je suis en train de développer un projet concurrent basé sur Stable Diffusion sous forme d'application à utiliser en local et que mes petits scripts Python le font déjà sans interface. Voilà à quoi ça ressemble actuellement. Du Photoshop like en gros. Misère ! J'ai oublié de préciser que je voulais un mec... J'ai envie d'être indépendante d'un service en ligne et de pouvoir disposer de la diversité de l'écosystème Stable Diffusion (modèles customisés/spécialisés plus adaptés à mon style ou au projet, fonctionnalités diverses, modes de contrôle divers). Il me reste à développer la possibilité de dessiner un croquis directement dedans (on peut déjà importer un croquis fait ailleurs), corriger quelques petits bugs à droite à gauche et surtout, sûrement le plus galère, rendre ça facile à installer pour le grand public afin de pouvoir distribuer une première version. Bref ! L'idée, c'est d'intégrer Stable Diffusion dans une appli qui ressemble vraiment à un logiciel de dessin et de ne pas embêter les utilisateurs avec un énième service/abonnement. Par contre, ça exigera une config assez costaude. Les modèles de Stable Diffusion réclament beaucoup de RAM et de VRAM.3 points
-
3 points
-
3 points
-
3 points
-
2 points
-
2 points
-
Hello, la compagnie ! Je viens vous donner quelques nouvelles de mes recherches et expérimentations sur le thème de l’IA. Comme promis, je reviens sur ma petite IA d’encrage. Pour rappel, il s’agit d’un modèle d’IA que je code et entraîne moi-même avec mes propres dessins dans le but d’avoir un automate qui transforme mes crayonnés en dessins encrés. La dernière fois que je vous en ai parlé, voici ce que ce projet était capable de faire. Image d’entrée Image de sortie Pas encore exploitable. Il y a encore beaucoup de traces et des traits de construction qui trainent. Par ailleurs, à l’époque, le programme ne comportait qu’un seul modèle d’IA qui n’était capable de filtrer l’image que par petites tuiles de 512 pixels par 512 pixels. En gros, l’image d’entrée était découpée en petite tuiles, comme ceci : Chaque petite tuile était filtrée indépendamment des autres par le modèle d’IA, comme ceci : Et pour finir, le programme réassemblait toutes les tuiles pour donner l’image finale. Le problème avec cette méthode, c’est que l’IA n’a pas de vision d’ensemble de l’image et que lorsqu’une ligne se balade sur plusieurs tuiles elle peut avoir des changements d’épaisseur brutaux sur les frontières entre les tuiles. Pour résoudre ce problème, j’ai cherché des solutions pour pouvoir traiter l’image dans son ensemble quelque soit sa taille alors qu’un modèle d’IA n’accepte qu’un seul format en entrée et sachant que plus les images traitées sont grandes, plus les modèles sont gros, plus ils sont longs à entraîner. Voici comment j’ai procédé pour améliorer mon IA. Amélioration des données En ce qui concerne les traits de constructions et autres traces qui traînent, là, ce n’était pas le modèle qu’il fallait modifier, mais les données d’entraînement. A force d’essais, j’ai constaté que le fait d’inclure les à-plat de noir et les textures perturbait plus l’IA qu’elle ne l’aidait. Elle ne savait pas trop si dans une surface couverte de crayon elle devait faire un à-plat ou repasser chaque grain de carbone et laisser libre les petites zones moins couvertes. Comme ceci par exemple. Et du coup, ça l’encourageait aussi à repasser les traits de construction. J’ai donc renoncé à prendre en compte les à-plat et les textures sachant que de nos jours, dans les logiciels comme Clip Studio Paint et consort, il y a des outils très puissants et rapides pour faire du remplissage automatique et qu’il y a des tas de brushes fantastiques pour faire de la texture. Le nouveau projet d’IA se contente donc de mettre au propre le lineart (ce qui est la partie la plus longue à faire à la main). Au final, j’ai viré de mes données d’entraînement toutes les images qui contenaient des à-plat et des textures. Amélioration du modèle Là, pour le coup, j’ai bien fait de beaucoup bidouiller avec Stable Diffusion parce que ça m’a permis d’apprendre une chose importante : une IA n’est pas obligée de ne comporter qu’un seul modèle. Elle peut en avoir plusieurs qui remplissent chacun un rôle différent. L’autre chose que j’ai apprise, c’est qu’on n’est pas obligé de n’envoyer qu’une seule image en entrée. On peut en empiler plusieurs qui contiennent des informations différentes. Forte de ces nouvelles connaissances, j’ai donc construit une nouvelle architecture composée de plusieurs modèles pour mon IA. Voici le schéma de l’architecture actuelle. (N'hésitez pas à cliquer dessus pour voir en grand.) 1 : Pré-Traitement Il s’agit d’un programme de traitement d’image ordinaire qui formate l’image d’entrée pour qu’elle soit utilisable par les modèles d’IA. Il applique un contraste, ajoute des marges pour que l’image soit un carré et la redimensionne en 2 versions : une de 512x512 pixels, l’autre de 1024x1024 pixels. 2 : Premier modèle Le premier modèle d’IA prend le crayonné de 512x512 pixels en entrée et effectue un premier nettoyage. Il fournit en sortie une image de même taille. 3 : Premier upscaler Vous noterez qu’il prend en entrée 2 images : celle générée par le premier modèle, mais aussi le crayonné de 512x512 pixels qu’on a déjà mis en entrée du premier modèle. Alors pourquoi je fais ça ? Et bien parce qu’il y a une perte d’information dans le passage du premier modèle qui pourrait faire perdre énormément de détails tout au bout du pipeline. L’ajouter en entrée du modèle suivant permet de conserver ces détails en mémoire. C’est une méthode employée au sein même de certains réseaux de neurones. L’image fournie en sortie du premier upscaler fait 1024x1024 pixels. 4 : Affinement Ce modèle effectue un nettoyage et fournit une image de même taille qu’en entrée. Il prend en entrée l’image de sortie du premier upscaler ainsi que le crayonné de taille 1024x1024 pixels. 5 : Second upscaler Ce modèle effectue un deuxième agrandissement et fournit une image de 2048x2048 pixels. Il prend en entrée l’image de sortie du nettoyeur de l’étape 4 ainsi que le crayonné de taille 1024x1024 pixels. Voilà où en est actuellement mon architecture. Elle n’est pas encore tout à fait complète. Je souhaite ajouter d’autres étapes de nettoyage et d’agrandissement et un postprocessing, mais les résultats ne sont pas probants pour l’instant et je souhaite essayer d’améliorer la qualité des modèles déjà existants avant en enrichissant les données avec de nouveaux dessins. Voilà ce que ma nouvelle architecture est capable de faire actuellement. C’est encore loin d’être parfait, mais c’est beaucoup plus propre ! Pour l’instant je n’estime toujours pas cette IA assez quali pour réellement encrer mes dessins. Ceci étant dit, je lui ai tout de même trouvé un usage en l’état. C’est très bien comme automate de nettoyage de scan de crayonné pour ensuite en imprimer une copie pour faire une colo tradi dessus, ce que j’ai fait pour le Secret Santa 2023. Bon, là c’était un niveau de gris que j’ai utilisé comme calque de colo indirecte ensuite, mais vous voyez l’idée. Pour l’heure, étant donné que j’ai réduit la quantité de données d’entraînement en enlevant les à-plat et les textures, je pense que la prochaine étape pour améliorer ce projet va être de continuer de faire des dessins et de les encrer à la mimine pour enrichir les données. x) Petite parenthèse sur Stable Diffusion XL J’avais dit que je surveillerai cette nouvelle version de Stable Diffusion. Je l’ai testée et la review va être vite vue : décevante. x) Le point positif : Le modèle de base de SDXL donne des images plus quali que SD 1.5 et SD 2.1 avec une plus grande variété de styles, mais les points positifs s’arrêtent là. Les points négatifs : Les modèles sont plus gros, ils occupent donc plus de mémoire et réclament plus de ressources à l’exécution. Les taux de transformation en mode Image to Image ne fonctionne pas de façon linéaire et agit de façon complètement folklorique à partir d’une certaine valeur, ce qui empêche les réglages fins. Très peu de modèles ControlNet sont disponibles comparé à SD 1.5. Les modèles customisés sont moins nombreux et moins diversifiés. Le point neutre : Les modèles customisés de SDXL ne sont ni mieux ni moins bien que ceux de SD 1.5. Moralité, j'ai mis SDXL à la poubelle et une majorité d’utilisateurs de Stable Diffusion reste encore sur SD 1.5. Il y a une v3 de Stable Diffusion qui est sur le point de sortir ainsi que Stable Cascade supposé être plus rapide. Je vais continuer de surveiller tout ça. Voilà voilà ! La prochaine fois je vous présenterai un usage détourné de Stable Diffusion que j’ai inclus dans un workflow classique de digital painting pour m’assister dans certaines tâches répétitives. En gros, ça fonctionne comme les filtres artistiques de Photoshop mais en plus élaboré et plus diversifié. Bonne journée à tous ! :D2 points
-
1 point
-
1 point
-
1 point
-
Oh mince ceci explique cela ahah Mais très cool c'est mieux en tout cas ! Très bonne réflecion sur la proportion de la feuille tu as raison, du coup oui ça fera d'autant plus sens de grossir la végétation en arrière plan, puis comme ça sera plus gros ça permettra de passer moins de temps dessus mais avec d'autant plus d'intention En tout cas mon feedback principal ici concerne le fait que tes couleurs locales colorées peuvent conserver d'avantage de saturation pour ne pas etre délavées vers du blanc. Et la contre lumiere verte par la feuille qui surplombe le dragon doit etre plus faible et donc tu dois conserver une valeur générale d'ombre plus sombre Le sol c'est pareil je pense, par bien de la couleur de ton élément, puis dérive le vers la couleur qui l'influence. Par exemple si tu decides que ton sol est brun, tu pars du brun puis tu ajoutes un peu de bleu dedans, ce qui va refroidir ta couleur Pour la végétation, la verre le plus saturé sera sur les faces traversées par la lumiere, quand on les voit du dessous. Car en traversant la lumiere rebondie à l'intérieur et sature fortement le materiaux1 point
-
1 point
-
Je ne savais pas ou ne savais plus que l'on pouvait directement changer le point d'origine comme cela. Merci pour le rappel, @Neuf150. 😅 @3-1415 Dans la vidéo, le gars a mis Origin to Selected en Quick Favorites. Tu peux faire de même en faisant une recherche avec la barre d'espace puis un clic droit dessus. La touche de Quick Favorites est Q. Il est possible de changer le raccourci même si il y en a déjà un comme indiqué (Ctrl Alt X). Le 3D Cursor est différent du point d'origine. C'est plus un outil que l'on peut utiliser pour éviter de changer le point d’origine de l'objet. Il suffit de choisir 3D Cursor comme sur l'image. Le raccourci est le point-virgule. Pour déplacer manuellement le 3d Cursor, c'est Shift + clic droit. Shift + S pour le remettre au centre du monde. Sinon les touches pour sélectionner Vertex, Edge ou Face, c'est 1,2 ou 3.1 point
-
Bonjour, Depuis quelques jours, je ne parviens plus à naviguer dans les discussions des forums en cliquant sur les numéros de pages ainsi que les boutons, précédent et suivant. Même chose si je clique sur le nombre de page pour sélectionner une page précise, rien ne se passe. Je suis obligé de faire "clic droit" sur les fonctions et "ouvrir dans une nouvelle fenêtre" pour naviguer et afficher la page voulue. Par ailleurs l'affichage du logo du Site est différents, il est mauve chez moi dans la section forum du site, mais reste Vert normal dans les autres sections (galeries, cours, ...)1 point
-
Hey @Kevinon est bien meilleur ! Franchement c'est solide, il te manque juste un peu d'ombre à droite ainsi qu'un peu de jaune sur la forêt 😉 Bon courage pour la suite !1 point
-
1 point
-
Hey @saurexbeau poivron ! De mon côté je te conseillerais de lisser plus la peau de ton poivron à l'aide d'une brush soft, c'est bien de voir les coups de pinceau mais actuellement c'est encore un peu trop brut 😉 N'oublie pas non plus les tons un peu violets dans l'ombre, le reflet cyan du sol mélangé au rouge du poivron ! Bon courage pour la suite !1 point
-
Coucou @lise_b bienvenue sur ce chapitre ! C'est un bon exercice pour t'échauffer 😉 Je te laisse avancer tranquillement sur les prochains Bon courage !1 point
-
Coucou @Krushbienvenue sur ce chapitre ! Très bon début en tout cas, l'exercice 2 m'a l'air maîtrisé, je chipoterais juste sur la forme 6 qui devrait avoir un dégradé plus doux 😉 Pour l'exercice de la fille sur la neige, tu as eu la bonne approche, ce qu'il te manque c'est juste les tons jaune sur la forêt qui participent grandement à l'ambiance ! Ce sont des subtilités qui font un grand changement. Bon courage pour la suite !1 point
-
le point de pivot serait l'équivalent de l'origin. Effectivement à 5:33 ça se rapproche assez de ce que je fais. Blender semble avoir une approche bien différente à ce niveau, c'est tres embêtant... la ou il faut deux touches sur maya, il faut 7 étapes sur Blender 😅 The steps without addon. Create a cube and go in Edit mode. Select a vertex and press Shift + S. Choose: Cursor to Selected. Go out of Edit mode and press F3. Now, Type: origin. Click on: Set Origin. Choose: Origin to 3D cursor. arg J'ai trouvé ça https://blendermarket.com/products/friendly-pivot1 point
-
Je suis pas sur que c'était le bon endroit pour poster ça 😅 J'aurai peut etre du faire un post dédié à part vu l'orientation que prends ta démarche vers une IA encreuse!! Mais je suis curieux de savoir si tu as essayé Vizcom? Sur la base de ton croquis un première passe de "rendering" donne ça et en 5 minutes d'inpainting pour rajouter l'eau et refine pour le realisme ça donne ça Des bases intéressantes pour du paintover 🙂1 point
-
1 point
-
Mon petit retour d'expérience sur les IA si ça peut en aider certains : MIDJOURNEY : c'est la premier app que je testais il y a plus d'un an. En pleine controverse sur les IA, je voulais savoir de quoi on parlait exactement. J'étais bien sur impressionné par la performance technologique, mais très déçu par le manque de contrôle sur l'image finale. En gros le "text to image" c'est pas pour moi qui souhaite matérialiser MON idée au plus prêt de MA vision. Je veux contrôler la composition, le design, la pause, etc... je veux explorer et approfondir ma vision et pas recevoir une "interprétation de la machine" J'y ai quand même vu l'opportunité dans le cadre de mon projet de character design WUNDERLAND-1940 de générer de la matière à photoshoper pour mes backgrounds. Un tache secondaire fastidieuse qui s'en retrouvait du coup bien simplifiée, me laissant plus de temps pour travailler sur l'essentiel. STABLE DIFFUSION Honnêtement j'ai juste passé le stade de l'install....et j'ai réalisé à quel point c'est un système qui demande vraiment de "mettre les mains dans le cambouis" pour obtenir des résultats intéressants... J'ai abandonné car j'ai découvert : VIZCOM une révélation! Place au "image to image" and même au "draw to image" (meme si honnêtement le draw se fera plutôt dans photoshop avant de balancer dans Vizcom). Fini des histoires de prompts qui ne sont plus essentiels mais juste additionnels. L'application se destine plus précisément au design de produits (voitures, baskets...), mais peut etre complètement utilisée pour tout autres sujets. On donne une input bcp plus précise et contrôlée de ce qu'on veut, et l'IA va traiter et upgrader graphiquement à la manière d'un filtre photoshop. La aussi par contre il ne faut pas s'imaginer qu'on va réaliser quelquechose de "fini" directement dans l'app, >> c'est à combiner avec un gros boulot de photoshop. On génère là aussi de la matière > puis photoshop pour assembler/composer/affiner > puis re vizcom pour affiner > puis photoshop pour finaliser. J'ai passé 80% de mon temps dans le mode "Refine" qui donne du photo realisme. Sert particulièrement pour les personnages, leur colorisation, les vêtements (superbes drapés!!). Génial pour explorer plein de variantes en donnant plus ou moins de liberté à l'IA. Beaucoup moins fort pour les décors/paysages... que j'ai du coup tenté d'envoyer dans : MAGNIFIC.AI image to image. je suis mitigé. Des résultat inégaux selon les sujets. Bof pour les personnages. Très efficaces pour les décors. Par contre là on est vraiment plus dans l'amélioration d'une image plutôt qu'une création. Au final quelques jolis résultats mais tres franchement bien trop cher pour ce que c'est. LEONARDO J'ai donc tenté Léonardo (au lieu de repartir sur MidJourney) que je n'avais pas encore testé pour essayer d'améliorer les résultats de Vizcom pour moins cher que Magnific.ai. Le résultat est vraiment pas mal. Là ou on sent que la database de Vizcom est tres "asiatique" et "moderne", Léonardo ramène un traitement plus Occidental et moins marqué par une temporalité moderne. Ce que je trouvais nécessaire pour mon projet qui s'inscrit en pleine WW2. Aujourd'hui je suis donc dans un process de 70% Photoshop + 25% Vizcom + 5% Leonardo. Cela me permet d'avoir un contrôle complet de mes personnages, leur pose, leur design,...avec un rendu au delà de mon niveau de digital painting.1 point
-
1 point
-
Merci pour ces précisions, je vais peaufiner ça avant de passer à la suite ! C'est vrai qu'après réflexion le fond fait un peu vide, je vais tenter de trouver quelque chose de sympa sans trop en faire 🙂 Je vais également réduire effectivement l'épaisseur de trait du rocher de second plan à droite, merci des conseils ! Bonne fin de journée 🙂1 point
-
Salut @TalesOfPoney, C'est du bon travail sur l'ensemble de ces premiers exercices 👍 Pour ce qui est des lignes de l'exercice 1, n'hésites pas à continuer de t'entraîner là dessus, ne serait-ce qu'en guise d'échauffement. Surtout sur les lignes courbes qui sont plus difficiles et où ton rendu est forcément, en conséquence, un peu moins abouti pour le moment. Mais avec un peu d'entrainement, tu vas te surprendre à très rapidement arriver à faire de belles lignes, peu importe la forme, la direction, etc... Bonne continuation !1 point
-
1 point
-
Ok ! Comme je t'ai dit ce sera avec plaisir que je reviendrais te poser mes questions et recueillir ton avis 😊 Je ne manquerai donc pas de revenir ici quand j'aurai avancé dessus 😉 je ferais juste en sorte de pas remettre deux mois cette fois haha1 point
-
1 point
-
1 point
-
Hello @saurex ! Très cool ce petit monstre ! Le poivron est vraiment superbe ! Tu as de très belles textures, pour aller plus loin, tu pourrais ajouter ce petit flou que tu peux retrouver sur certains bords de la ref, et qui accntue un peu le réalisme 🙂 En utilisant simplement un brush soft et en repassant sur certains bords 🙂 Mais c'est un petit détail, mais ça feras toute la différence 😛 Keep it up !1 point
-
Hello, superbe ce premier dessin ! J'aime beaucoup les couleurs :) Bon courage pour la suite1 point
-
Bienvenue dans la Partie 2 ! Aaah j'aime bien l'idée c'est original ! Je n'ai pas bien compris en revanche si tu t'arrêtais là ou si tu allais continuer ? Car même si je ne vous encourage pas à passer 30 heures sur ce digital painting de début pour ne pas vous épuiser mentalement dès le début, ce serait bien qu'il montre quand même ton savoir-faire actuel réel 🙂1 point
-
1 point
-
atterrir dans les mentions spéciales c'est bien au delà des espérances que j'avais, tant la qualité et la quantité des participations étaient impressionnantes. Un immense merci à toute l'équipe, et encore bravo à toutes et tous pour vos belles créations.1 point
-
Merci pour vos réactions ! Ca fait chaud au coeur à lire 🙂 On va tout faire pour que le prochain Challenge soit au moins aussi motivant, comme toujours.1 point
-
1 point
-
Hello @ilya ! J'espère que tout vas bien pour toi après ton intervention ! Le résultat est plutôt bon ! Peut être un peu trop " uniforme ", tes taches on un peu toutes la même forme, ce qui rend le rendu un peu monotone. En fait je pense que tu te compliques trop la tâche pour rien, je pense que le lasso est inutile pour la texture de la neige, il vaut mieux la peindre simplement à main levée, en essayant de faire varier formes, tailles et saturation de couleurs, pour avoir un rendu plus organique 🙂 Le but de l'exercice n'est pas d'avoir un rendu le plus fidèle possible à la référence, c'est un exercice pour apprendre à décomposer l'image, donc ne t'acharnes pas trop là dessus, au risque de te décourager pour la suite, tu auras pleeeeins d'autres exercices dans ces cours, ou il faudras pousser le rendu ! 🙂 Je remarque aussi que tu passes beaucoup sur les sujets des autres élèves, ce qui est très cool ! Tu fais vivre le forum, mais il ne faut pas trop se comparer avec les autres, chacun à ses facilité/difficultés d'apprentissage et elles sont propres à chaque personnes, et il y aura forcément toujours quelqu'un de meilleur que nous, il est plus sage de se comparé au soi même du passé et de savourer les progrès effectués 😉1 point
-
1 point
-
1 point
-
Merci @spartan ;-) Voilà mon dernier exercice pour le chapitre 1 ! Et en-dessous, il s'agit d'un paysage réalisé en reprenant le style du premier painting que Spartan nous a demandé de réaliser avant le programme ; mais avec les connaissances que j'ai développé depuis. Chapitre 2 maintenant...1 point