Classement
Contenu populaire
Affichage du contenu avec la meilleure réputation le 03/21/2024 dans toutes les zones
-
7 points
-
7 points
-
5 points
-
5 points
-
4 points
-
Bonjour, Étant présent aux IAMAG Master Classes 2024, j'ai pu assister à la conférence The Spirit of the Entertainement Design présentée par Feng Zhu. C'est un artiste renommé qui a travaillé pour les plus grands studios de cinéma et de jeux vidéo (Microsoft, Electronic Arts, Sony, Activision, Industrial Light+Magic, NCSoft, Warner Brothers, Lucasfilm, Bay Films, Epic Games...). A la fin de sa présentation il dresse une liste des différentes choses où l'intelligence artificielle (IA) peine à réussir : What AI don't do well Can't design functional interactions Can't match same exterior and interior designs Can't combine multiple interactions Can't design multiple elements in the same scene Can't design first, second and third level reveals and selling Can't refine design details Can't create global consistency in specific IPS Can't integrate existing designs with new designs Can't embed deeper meaning designs Can't decide on art direction Can't be individually unique Can't design human experiences Voici ma traduction et interprétation personnelle (ouverte à vos suggestions pour être améliorée) : Ce que l'IA ne sait pas bien faire : Concevoir des éléments qui interagissent entre eux Assurer la cohérence entre l'extérieur et l'intérieur d'un élément Combiner plusieurs interactions Représenter plusieurs idées dans la même scène Attirer l'attention et créer du suspens (étapes de teasing) Affiner les détails d'un concept Suivre une identité artistique précise Intégrer un concept existant à un nouveau Rendre des concepts plus subtils Choisir une direction artistique Se différencier des autres Exprimer ce que ressentent les humains L'IA soulève beaucoup de questions et démoralise pas mal d'artistes. Je voulais vous partager cette liste que je trouve intéressante. Cela peut apporter une lueur d'espoir et donner des pistes pour se démarquer. up : vidéo ajoutée par Feng Zhu sur sa chaîne YouTube le 13 mars 2024 (en anglais)2 points
-
2 points
-
Salut tout le monde, bon, ça y est : je me lance! Le premier exercice de la Digital Painting School ! Alors, c'est pas parfait donc soyez indulgent plz 😉 Pour info: pour ce qui est de la végétation, je me suis crée vite fait un brush que j'ai appliqué sur plusieurs calques, en réduisant sa taille pour suggérer une profondeur. plus c'est loin de l'oeil, plus la taille du brush est petite. Point perfectible: pour avancer sur le programme, j'ai un peu rushé sur les transitions entre les différents layers de végétations. ça se voit sur le layer à la base de la pyramide. Que la Force soit avec Vous !1 point
-
1 point
-
Hop, du coup hier soir j'ai ressorti Photoshop pour la première fois depuis longtemps. Enfin d'habitude je l'ouvre pour faire les textures de mes sculpts 3D. Mais vu qu'en ce moment, je voudrais me mettre plus sérieusement au digital painting, je me suis dit que j'allais faire une petite étude d'après photo. Juste pour voir où j'en suis avec mes "Bases" un peu inexistantes. Et pour tout simplement savoir ce que j'dois améliorer etc. Donc voilà, j'ai choisi une photo que je trouvais plutôt intéressante à faire. Et j'ai fait ceci sur photoshop. Avec pas mal de calques pour gérer un peu mes différents éléments. J'me suis permise de rajouter une petite ombre d'arbre.1 point
-
Hello! Je suis momo, et je fait surtout des illustrations de personnages, mais j'essaie d'étendre mes sujet ces temps-ci pour m'aider à faire de la BD. N'hésitez pas à commenter sur mes paysages/fonds, car c'est sur ça que je veux travailler en ce moment. 🙂 Voilà un dessin terminé la semaine dernière pour commencer! À plus1 point
-
1 point
-
1 point
-
1 point
-
@TaCaEle, je ne m'y suis pas encore frotté, mais il me fait peur ! Bravo @lynaldine!1 point
-
Hello, la compagnie ! Je viens vous donner quelques nouvelles de mes recherches et expérimentations sur le thème de l’IA. Comme promis, je reviens sur ma petite IA d’encrage. Pour rappel, il s’agit d’un modèle d’IA que je code et entraîne moi-même avec mes propres dessins dans le but d’avoir un automate qui transforme mes crayonnés en dessins encrés. La dernière fois que je vous en ai parlé, voici ce que ce projet était capable de faire. Image d’entrée Image de sortie Pas encore exploitable. Il y a encore beaucoup de traces et des traits de construction qui trainent. Par ailleurs, à l’époque, le programme ne comportait qu’un seul modèle d’IA qui n’était capable de filtrer l’image que par petites tuiles de 512 pixels par 512 pixels. En gros, l’image d’entrée était découpée en petite tuiles, comme ceci : Chaque petite tuile était filtrée indépendamment des autres par le modèle d’IA, comme ceci : Et pour finir, le programme réassemblait toutes les tuiles pour donner l’image finale. Le problème avec cette méthode, c’est que l’IA n’a pas de vision d’ensemble de l’image et que lorsqu’une ligne se balade sur plusieurs tuiles elle peut avoir des changements d’épaisseur brutaux sur les frontières entre les tuiles. Pour résoudre ce problème, j’ai cherché des solutions pour pouvoir traiter l’image dans son ensemble quelque soit sa taille alors qu’un modèle d’IA n’accepte qu’un seul format en entrée et sachant que plus les images traitées sont grandes, plus les modèles sont gros, plus ils sont longs à entraîner. Voici comment j’ai procédé pour améliorer mon IA. Amélioration des données En ce qui concerne les traits de constructions et autres traces qui traînent, là, ce n’était pas le modèle qu’il fallait modifier, mais les données d’entraînement. A force d’essais, j’ai constaté que le fait d’inclure les à-plat de noir et les textures perturbait plus l’IA qu’elle ne l’aidait. Elle ne savait pas trop si dans une surface couverte de crayon elle devait faire un à-plat ou repasser chaque grain de carbone et laisser libre les petites zones moins couvertes. Comme ceci par exemple. Et du coup, ça l’encourageait aussi à repasser les traits de construction. J’ai donc renoncé à prendre en compte les à-plat et les textures sachant que de nos jours, dans les logiciels comme Clip Studio Paint et consort, il y a des outils très puissants et rapides pour faire du remplissage automatique et qu’il y a des tas de brushes fantastiques pour faire de la texture. Le nouveau projet d’IA se contente donc de mettre au propre le lineart (ce qui est la partie la plus longue à faire à la main). Au final, j’ai viré de mes données d’entraînement toutes les images qui contenaient des à-plat et des textures. Amélioration du modèle Là, pour le coup, j’ai bien fait de beaucoup bidouiller avec Stable Diffusion parce que ça m’a permis d’apprendre une chose importante : une IA n’est pas obligée de ne comporter qu’un seul modèle. Elle peut en avoir plusieurs qui remplissent chacun un rôle différent. L’autre chose que j’ai apprise, c’est qu’on n’est pas obligé de n’envoyer qu’une seule image en entrée. On peut en empiler plusieurs qui contiennent des informations différentes. Forte de ces nouvelles connaissances, j’ai donc construit une nouvelle architecture composée de plusieurs modèles pour mon IA. Voici le schéma de l’architecture actuelle. (N'hésitez pas à cliquer dessus pour voir en grand.) 1 : Pré-Traitement Il s’agit d’un programme de traitement d’image ordinaire qui formate l’image d’entrée pour qu’elle soit utilisable par les modèles d’IA. Il applique un contraste, ajoute des marges pour que l’image soit un carré et la redimensionne en 2 versions : une de 512x512 pixels, l’autre de 1024x1024 pixels. 2 : Premier modèle Le premier modèle d’IA prend le crayonné de 512x512 pixels en entrée et effectue un premier nettoyage. Il fournit en sortie une image de même taille. 3 : Premier upscaler Vous noterez qu’il prend en entrée 2 images : celle générée par le premier modèle, mais aussi le crayonné de 512x512 pixels qu’on a déjà mis en entrée du premier modèle. Alors pourquoi je fais ça ? Et bien parce qu’il y a une perte d’information dans le passage du premier modèle qui pourrait faire perdre énormément de détails tout au bout du pipeline. L’ajouter en entrée du modèle suivant permet de conserver ces détails en mémoire. C’est une méthode employée au sein même de certains réseaux de neurones. L’image fournie en sortie du premier upscaler fait 1024x1024 pixels. 4 : Affinement Ce modèle effectue un nettoyage et fournit une image de même taille qu’en entrée. Il prend en entrée l’image de sortie du premier upscaler ainsi que le crayonné de taille 1024x1024 pixels. 5 : Second upscaler Ce modèle effectue un deuxième agrandissement et fournit une image de 2048x2048 pixels. Il prend en entrée l’image de sortie du nettoyeur de l’étape 4 ainsi que le crayonné de taille 1024x1024 pixels. Voilà où en est actuellement mon architecture. Elle n’est pas encore tout à fait complète. Je souhaite ajouter d’autres étapes de nettoyage et d’agrandissement et un postprocessing, mais les résultats ne sont pas probants pour l’instant et je souhaite essayer d’améliorer la qualité des modèles déjà existants avant en enrichissant les données avec de nouveaux dessins. Voilà ce que ma nouvelle architecture est capable de faire actuellement. C’est encore loin d’être parfait, mais c’est beaucoup plus propre ! Pour l’instant je n’estime toujours pas cette IA assez quali pour réellement encrer mes dessins. Ceci étant dit, je lui ai tout de même trouvé un usage en l’état. C’est très bien comme automate de nettoyage de scan de crayonné pour ensuite en imprimer une copie pour faire une colo tradi dessus, ce que j’ai fait pour le Secret Santa 2023. Bon, là c’était un niveau de gris que j’ai utilisé comme calque de colo indirecte ensuite, mais vous voyez l’idée. Pour l’heure, étant donné que j’ai réduit la quantité de données d’entraînement en enlevant les à-plat et les textures, je pense que la prochaine étape pour améliorer ce projet va être de continuer de faire des dessins et de les encrer à la mimine pour enrichir les données. x) Petite parenthèse sur Stable Diffusion XL J’avais dit que je surveillerai cette nouvelle version de Stable Diffusion. Je l’ai testée et la review va être vite vue : décevante. x) Le point positif : Le modèle de base de SDXL donne des images plus quali que SD 1.5 et SD 2.1 avec une plus grande variété de styles, mais les points positifs s’arrêtent là. Les points négatifs : Les modèles sont plus gros, ils occupent donc plus de mémoire et réclament plus de ressources à l’exécution. Les taux de transformation en mode Image to Image ne fonctionne pas de façon linéaire et agit de façon complètement folklorique à partir d’une certaine valeur, ce qui empêche les réglages fins. Très peu de modèles ControlNet sont disponibles comparé à SD 1.5. Les modèles customisés sont moins nombreux et moins diversifiés. Le point neutre : Les modèles customisés de SDXL ne sont ni mieux ni moins bien que ceux de SD 1.5. Moralité, j'ai mis SDXL à la poubelle et une majorité d’utilisateurs de Stable Diffusion reste encore sur SD 1.5. Il y a une v3 de Stable Diffusion qui est sur le point de sortir ainsi que Stable Cascade supposé être plus rapide. Je vais continuer de surveiller tout ça. Voilà voilà ! La prochaine fois je vous présenterai un usage détourné de Stable Diffusion que j’ai inclus dans un workflow classique de digital painting pour m’assister dans certaines tâches répétitives. En gros, ça fonctionne comme les filtres artistiques de Photoshop mais en plus élaboré et plus diversifié. Bonne journée à tous ! :D1 point
-
1 point
-
1 point
-
Merci beaucoup pour ta réponse @L'oeuf Ou La Toile. Il est clair que comme tu le dis, j'pense que je suis pas mal étouffé par la productivité et la technicité qu'on m'a toujours demander d'atteindre. Et que par conséquent, je me retrouve à avoir perdu mon petit paradis créatif. Et que comme tu le dis, il faudrait que j'essaye de trouver les raisons qui font que j'ai ce blocage, j'ai déjà plusieurs pistes, et va falloir que je travaille dessus ! Je regarderais cette vidéo demain, et j'verrais si j'ai d'autres choses à raconter par la suite !1 point
-
Hey ! Alors pour l'image du robot je recommanderais en réalité de ne pas partir trop loin car le but est surtout de concentrer ses efforts sur le painting final ! Jedis ça car ce lighting ultra doré que Spartan a avec le robot fonctionne justement parce que c'est un robot métallique et du coup ça implique beaucoup de changement et fonctionnement de lumiere et couleur différent dans le cas ou on utilise une silhouette humaine. Du coup j'aurais tendance à te pousser vers quelque chose comme ça : Pour le painting final des méduses je pense que ce serait cool d'avoir un second élément important qui vienne se placer dans la scene. Que ce soit une sirene, un poisson, un humain qui passe, un sous marin ou autre, histoire d'avoir une histoire racontée. Ou sinon ajouter un environnement avec des éléments intéressants1 point
-
1 point
-
1 point
-
1 point
-
1 point
-
1 point
-
1 point
-
1 point
-
1 point
-
1 point
-
1 point
-
1 point
-
Salut @emicathe, Très stylé ce que t'as fait jusqu'à maintenant ! 😁 Je pense que pour donner une impression de hauteur il faudrait que tu fasses une partie du sol et que tu resserres le haut de ton image (genre perspective à 3 points). Pour ca tu peux utilisé la grotte et faire des lignes qui convergent vers un point central vers le haut. Et aussi comme sur ton image de référence faire en sorte que le plus loin devienne très sombre voir noir. Ca te permettrait de suggérer des méduses luminescentes en faisant quelque point plus lumineux ! Si tu veux faire des essais, tu prends toute ton image et avec l'outil de transformation tu rapproches fortement tes deux angles d'en haut pour voir ce que ça donne. Bon courage ✌️😁1 point
-
Coucou @o_rion bienvenue sur ce chapitre Prend ton temps sur chaque exercices, je sens que tu veux aller trop vite et donc tu as sauté pas mal d'étapes clés. Par exemple sur l'exercice 2 il te manque une meilleure utilisation de ta brosse dure, pour avoir des bords nets comme sur la forme 8. Sur la 2.5, il te manque encore l'ambiance, avec le halo de lumière qui entoure la fille, et aussi l'éclairage (les teintes de jaune) sur le bois et la forêt au fond. La montagne est réussie, dans l'ensemble bravo ! Mais il te faut combiner le lasso avec la brush texturée (en grande taille) pour obtenir ce grain qu'il te manque sur les montagnes. Je te conseille de retravailler ces exercices avant de continuer, ça vaut le coup 😉 Bon courage pour la suite !1 point
-
1 point
-
1 point
-
1 point
-
Bonsoir les portraitistes ! Vu que je fais souvent des études rapides de portraits, j'essaierai d'en poster quelques unes ici @bhug tes portraits sont super, lâche rien !! @CoCo-970 Trop mignon, et le dessin est très réussi 👍 @mirobolant la couleur c'est pas simple mais tu t'en es bien sorti et tes portraits sont très cool, continue comme ça 👍 Voilà ma session de portraits d'aujourd'hui (y'en aura pas autant les prochaines fois xD ) et bon courage à celles et ceux qui continuent ce challenge 💪1 point
-
Coucou @krelloton exercice est excellent bravo ! La seule chose que je chipoterais ce serait au niveua de l'eau, on la confond avec un lac gelé à cause de la texture assez opaque, il manque des reflets de lumière dessus 😉 Bon courage pour la suite !1 point
-
Hey ! salut tout le monde ! Très longtemps que je n'ai pas posté ici, mais je me rends compte que c'est un très bon endroit pour avoir du feedback. Et ça tombe bien, j'en ai besoin ! Voici mon dernier taff fait sur Procreate, un fanart d'Elden Ring. J'aimerais avoir l'avis de la communauté là-dessus, sur quels aspects de cette illustration y a-t-il des manques ? Pour ma part je trouve qu'il y a de la marge encore de progrès niveau rendu, notamment les vêtements, drapée en tout genre. Les cheveux aussi c'est compliqué. Merci d'avance pour les retours.1 point
-
1 point
-
1 point
-
1 point
-
En effet merci de continuer à tester tout ça pour voir où ça peut mener. C'est super intéressant ! Je trouve que tes avis personnels rajoutent vraiment un plus à chaque fois.1 point