Classement
Contenu populaire
Affichage du contenu avec la meilleure réputation le 11/08/2022 dans toutes les zones
-
Bibliographie OpenClassrooms, Apprenez les bases du langage Python : https://openclassrooms.com/fr/courses/7168871-apprenez-les-bases-du-langage-python Le Python, c’est un langage très populaire de nos jours. Il est présent dans un tas de domaines différents. Il est utilisé pour scripter ou développer des plugins dans la plupart des logiciels de 3D dont Blender. C’est aussi le langage le plus complet pour faire de la data science et du deep learning. Machine Learnia : https://www.youtube.com/c/MachineLearnia Une chaîne YouTube pédagogique qui propose une initiation au machine learning, au langage Python dans le cadre du machine learning et une troisième sur le deep learning. Je vous recommande d’ailleurs la première vidéo de la formation de deep learning. Elle retrace l’histoire des réseaux de neurones artificiels tout en expliquant les bases de leur fonctionnement. OpenCV Python Tutorial (en English) : https://www.geeksforgeeks.org/opencv-python-tutorial/ OpenCV est une librairie de manipulation d’images. Elle est disponible en Python et dans d’autres langages. Je l’ai utilisée pour mon programme de multiplication des données d’entraînement, entre autres. Réseau de neurones avec Tensorflow : https://khayyam.developpez.com/articles/intelligence-artificielle/tensorflow/ Tensorflow est une des bibliothèques qui permet de monter un réseau de neurones comme un jeu de Lego, de l'entraîner, puis de l’exécuter. Dans ce tuto, on apprend à développer un réseau de neurones capables de classifier des chiffres écrits à la main. Tensorflow et les réseaux antagonistes génératifs : https://khayyam.developpez.com/articles/intelligence-artificielle/tensorflow-gan/ Les réseaux antagonistes génératifs sont les modèles utilisés pour la création d’images. Ils se composent de 2 réseaux de neurones. L’un génère des images, l’autre identifie si une image est réelle ou si c’est un fake généré artificiellement. Les 2 réseaux s’entraînent en tandem : pendant que le discriminateur s’entraîne à distinguer les images réelles des images artificielles avec plus de précision, le générateur s’entraîne à créer des images qui vont tromper le discriminateur. Dans ce tuto, on apprend à créer un réseau capable de générer un chiffre écrit à la main. How to Develop a Conditional GAN (cGAN) From Scratch (en English) : https://machinelearningmastery.com/how-to-develop-a-conditional-generative-adversarial-network-from-scratch/ Dans ce tuto, on apprend à développer un GAN conditionnel. C’est comme le précédent, sauf qu’on précise en entrée quel type d’objet on veut générer dans notre image. How to Develop a Pix2Pix GAN for Image-to-Image translation (en English) : https://machinelearningmastery.com/how-to-develop-a-pix2pix-gan-for-image-to-image-translation/ Il s’agit de l’algorithme que j’ai utilisé ! Il permet de transformer une image en une autre. Il est entraîné sur la base de couples d’images sources et cibles. Et pour finir, les bouquins que je potasse en ce moment. Je les ai achetés à la librairie Eyrolles à Paris. Ils se commandent aisément sur Internet. Voilà, voilà ! Merci de m’avoir lu jusqu’au bout. Je compte sur vous pour envoyer des illustrations hors d’atteinte des IA pour le challenge ! 😄 Bonne nuit ! 😴10 points
-
Yo ! je poste ici mes différents travaux pour le challenge, je compte faire beaucoup de sujets pour ne choisir que mes 3 meilleurs illus à poster à la fin du challenge ! 🙂 Je démarre avec Bayne, j'ai fait 2 planches de concepts pour lui, je vais passer à l'illustration finale demain : Ces concepts ne sont pas définitifs, je changerais peut être 2-3 choses sur l'illustration finale 🙂8 points
-
L’artiste de demain est-il développeur ? Bon, qu’on se le dise, le grand remplacement des artistes par les IA, je n’y crois pas le début d’une seconde. En revanche, ce dont je suis certaine, c’est qu’elles vont transformer le métier comme l’ont fait l’arrivée du numérique puis de la 3D sur le marché à leur époque. De nouveaux outils vont débarquer et avec eux de nouveaux métiers aussi. Avec Photoshop et la 3D, il y a des métiers qui sont nés et qui n’existaient pas avant. Alors oui, ça implique de faire de la veille sur ce qui existe et sort, de se former, de mettre à jour son panel de compétences. C’est la réalité de n’importe quel métier en fin de compte. Enfin, à condition de changer d’approche. Une collaboration constructive plutôt qu’une guerre destructrice Les boîtes qui développent ces IA de génération d’image à partir de texte se plaisent à faire le buzz en montrant les résultats les plus réussis et les artistes qui s’en servent, même expérimentés, sont plutôt avares en informations quant au nombre de tentatives et aux prompts qu’ils ont utilisés pour obtenir les résultats qu’ils affichent. Mais personne ne parle des 99,9…% de déchets inutilisables parce que la moitié des infos du prompt sont zappées, sans parler de l’anatomie et de la perspective mal assimilées. L’approche est à la fois trop ambitieuse et trop naïve (en plus d’être légalement discutable vis-à-vis du droit d’auteur). Le seul moyen d’avoir assez de données pour cela, c’est d’aspirer les données du web à l’aide de bots. Sauf que ces données, comme expliqué plus tôt, sont chaotiques. Elles comportent des trous et des hashtags non pertinents. Le problème avec le deep learning, c’est que si on n’améliore pas la qualité des données dont on dispose déjà, en ajouter davantage n’améliore pas la qualité de l’IA. On atteint un plafond. L’IA peut même régresser si les nouvelles données injectées sont corrompues avec davantage de trous et de descriptions et hashtags incohérents. Pour dépasser ce plafond et améliorer l’IA, il n’y a pas 36 solutions : il faut retaper la description de chacune des images récoltées sur le web. Vu la quantité, c’est juste IM-POS-SIBLE. x) En fait, il y aurait une possibilité : que les auteurs de chaque image eux-mêmes le fassent… Mais je ne pense pas qu’il soit malin de compter sur eux pour faciliter la tâche de ceux qui pillent leurs créations. Avec la hype, des petits clients type particuliers, petits éditeurs ou artisans vont peut-être être tentés de passer par les IA pour créer leurs images. Ils vont essayer… Mais alors gare à la déception. Reprenons l’exemple du Sangoku qui fait son Kaméhaméha. Imaginez qu’un client potentiel décide de demander ça à une IA plutôt que de commissionner un artiste. Je viens de tester Stable Diffusion. Après une bonne vingtaine de rendus, alors il y a des rendus pas mal où on reconnait un peu Sangoku… Des rendus que je soupçonne d’être obtenus à partir d’une ou deux images seulement aussi (ça renifle le surentraînement). Mais la pose iconique du Kaméhaméha, impossible de l’avoir, ni de près, ni de loin ! Le client, il sera bien obligé de revenir commissionner l’artiste. x) Je pense que les petits clients qui auront été tentés de faire des économies vont vite revenir vers les petits artistes après s’être bien cassés les dents sur des résultats à côté de la plaque où à la qualité discutable. Je vous encourage vraiment à tester ces IA par vous même pour vous en rendre compte, même si vous ne les aimez pas. On craint ce que l’on ne connaît pas, mais on ne craint pas ce que l’on connaît. Si vous avez des idées précises de ce que vous voulez faire ou un brief d’un client à tester, vous verrez que tirer ce que vous voulez de ces IA, c’est… délicat. Pour vraiment passer outre ces défauts, je pense qu’une autre approche va s’imposer. En vérité c’est une approche utilisée depuis bien longtemps parce que le manque de données et de puissance de calcul l’imposait : La spécialisation. Plutôt que d’avoir une grosse IA généraliste qui essaie de créer une image de A à Z pour un résultat approximatif qui nécessitera souvent beaucoup de retouches, combiner plusieurs IA très spécialisées sur les étapes les moins créatives et les plus laborieuses du workflow. Ces IA pourraient donner des résultats beaucoup plus qualitatifs, nécessitant beaucoup moins de retouches, tout en nécessitant peu de données et de puissance de calcul. Piocher ces données sur Internet n’est pas la bonne idée, outre le problème des droits d’auteur, je vais le répéter, sur Internet vous ne maîtrisez pas la qualité des données. Non, le plus simple, c’est de travailler en collaboration avec les artistes. Les recruter pour qu’ils créent les données d’entraînement en échangeant avec eux sur ce qu’on veut que les IA maison sachent faire. Ainsi, la qualité des données sera sous contrôle et normalisée. Ainsi, on peut créer des IA spécifiques aux besoins d’un studio, voire d’un projet. On peut tailler des IA sur mesure qui rendront un style spécifique et unique. Je pense qu’il peut ressortir quelque chose de beaucoup plus positif si les développeurs et les artistes travaillent en collaboration plutôt que les uns contre les autres. Bon, et l’artiste de demain, est-ce qu’il est développeur ? Je pense que de nouveaux profils d’artistes peuvent émerger avec ces nouvelles technologies. Comme pour la 3D avec laquelle un certain nombre d’artistes sont devenus plus techniques à devoir manipuler davantage de chiffres et de math. Les systèmes nodaux de Blender et de Houdini sont d’ailleurs des sortes de langages de programmation. La plupart des logiciels de 3D sont d’ailleurs scriptables avec le langage Python. Un artiste qui a des bases dans ce langage peut donc encore plus tirer partie de ces logiciels. Et bien ça peut être pareil avec les IA. Un artiste qui s’initiera à la data science pourra créer ses propres IA à son image, avec son style, pour réaliser ses propres projets, réaliser des projets plus ambitieux que si cette technologie n’existait pas, ou il pourra mettre en valeur sa compétence double sur le marché du travail. Par contre, un développeur pur jus qui n’a jamais touché un crayon de sa vie ne pourra jamais remplacer l’artiste. Si on reprend la démarche de construction des données de ma petite IA, je doute que quelqu’un qui n’a jamais dessiné de sa vie aura l’idée de prendre en compte les traits de construction, le grain du brush numérique ou de faire des pleins ou des déliés sur ses encrages. Et puis il ne saura tout simplement pas faire de crobards corrects. Oui, le métier va sûrement changer. Les budgets pour des projets d’un même niveau d’ambition vont sûrement baisser et la taille des équipes aussi. Mais qui dit budgets plus modestes dit aussi projets plus accessibles à des petites structures qui ne pouvaient pas les faire avant et aussi possibilité de court-circuiter les producteurs et éditeurs frileux pour faire des projets plus innovants sur le plan créatif. Les indépendants auront plus de possibilités.7 points
-
Hello, la compagnie ! Je ne souhaitais pas sortir cet article tout de suite car je voulais améliorer un peu mon projet avant, mais comme @Spartan de DPSchool vient de sortir une nouvelle vidéo sur le sujet, je me suis dit que, actu oblige, c’était le bon moment pour casser un peu les mythes et les fantasmes qui tournent autour des IA en apportant un éclairage un peu plus technique. Vu les projets mis en avant par les médias, il y en a sûrement parmi vous qui imaginent que les IA qui font tant parler d’elles de nos jours sont des monstres de code compliqué à la portée des seules multinationales de la tech. Que nenni ! On peut développer sa propre IA de génération créative, tout seul, chez soi, dans ses charentaises. Je ne vous charrie pas, il y a des tas de tutos sur le net et des bouquins sur le sujet dans le commerce ce qui m’a permis de développer la mienne. 😄 Je vous les liste à la fin. Je vais présenter tout ça en détail et vous allez découvrir que ce qui est en train de bousculer le monde actuel n’est en réalité qu’un bout de code tout con né avant vos parents. Je déconne pas. Petit sommaire : Comment ça marche ? Le principe de base du machine learning Le deep learning Les limites de Midjourney, Dall-E & co Stratégie pour hacker les IA Bonjour Péguy ! Le nerf de la guerre : les données d’entraînement Le résultat actuel Pistes d’améliorations L’artiste de demain est-il développeur ? Une collaboration constructive plutôt qu’une guerre destructrice Bibliographie Je découpe ça en plusieurs messages parce que j’ai beaucoup à dire et à montrer.6 points
-
Comment ça marche ? Pour commencer, faisons une petite précision sur le type d’IA qui fait beaucoup parler de lui de nos jours, il s’agit du deep learning. L’intelligence artificielle est en réalité un champ d’étude très vaste regroupant des sous domaines qui ont eux-même des sous domaines. Le machine learning est un sous domaine de l’intelligence artificielle et le deep learning est lui-même un sous domaine du machine learning. Je vous explique le principe de fonctionnement sans vous assommer avec les détails techniques. Vous verrez que finalement, qualifier ces algorithmes d’”intelligence” artificielle est un putain d’abus de langage. Le principe de base du machine learning Bon, vous allez être un peu surpris mais… Le machine learning, vous en avez tous fait à l’école sur papier. Si si ! Je vais vous montrer. Vous avez sûrement déjà vu ce genre de graphique et on vous sûrement déjà demandé de tracer à la règle une droite qui passe le plus près possible de tout ces points. Pour l’anecdote je me souviens l’avoir fait en cours de physique au collège. La prof nous avait donné un graphique avec des mesures de la température d’ébullition de l’eau en fonction de l’altitude. Elle nous a demandé de tracer la droite la plus proche possible de tous les points, comme ceci : C’est une fonction affine de type y = ax + b. Ensuite, elle nous a demandé de placer 2 points dessus et de mesurer leur position pour calculer les paramètres a et b de la fonction affine et pour finir, à l’aide de ces paramètres calculés, elle nous a demandé de prédire la température d’ébullition de l’eau pour une altitude donnée. Et bien voilà, le machine learning, ce n’est rien d’autre que ça : utiliser les données récoltées pour calculer les paramètres a et b optimaux pour construire un modèle de type y = ax + b qui soit capable de prédire la valeur de y par rapport à une donnée x avec la marge d’erreur la plus petite possible. C’est con, hein ? 😄 Comme vous pouvez le voir, la droite n’est qu’une approximation et il est impossible de la faire passer par tous les points. Tout ce qu’on peut faire c’est essayer d’avoir la marge d’erreur moyenne la plus petite possible, mais elle ne pourra jamais tomber à zéro. Alors on pourrait imaginer un modèle beaucoup plus compliqué capable de passer par absolument tous les points, comme ceci : Modèle de type Mais vous voyez bien que ce modèle est complètement absurde par rapport à la réalité de la physique et que si vous ajoutez une nouvelle mesure dans les données, comme ceci : Et bien la marge d’erreur est même encore plus grande que si vous vous étiez contenté d’une simple droite. C’est le problème de la généralisation du modèle. Un bon modèle doit être capable de minimiser les erreurs sur les données d’entraînement, mais tout en les minimisant sur de nouvelles données aussi. Le travail d’un data scientiste consiste donc à analyser les données et sélectionner un modèle qui propose le meilleur compromis possible entre la précision vis à vis des données d’entraînement et la capacité de généralisation. La perfection est impossible à atteindre parce qu’il y a des fluctuations et du bruit dans les données. La droite est un exemple. Selon la distribution des données on peut avoir besoin d’un modèle différent, comme ici : Ici on a un modèle de type et il faut optimiser les paramètres a, b et c. Voilà pour les bases du machine learning. La particularité du deep learning, c’est qu’on ne va pas ajuster 2 ou 3 paramètres, mais des millions, voire des milliards de paramètres pour traiter des paquets de données en vrac. Mais le principe est identique. Le deep learning Les schémas que je présente dans cette section sont des captures d’une vidéo de la chaîne Machine Learnia sur le thème du Deep Learning sur Youtube. Je vous parlerai de cette chaîne dans la bibliographie. Le premier concept de neurone artificiel a été élaboré par deux mathématiciens, Warren McCulloch et Walter Pitts, en… 1943 ! Je vous avais prévenus que vos parents n’étaient pas encore nés. x) Rappelons le principe de fonctionnement d’un neurone, un vrai. En orange, vous avez les dendrites qui sont connectées aux terminaisons d’autres neurones. Elles sont excitées ou non selon que les neurones qui les précèdent le sont ou non. Si le niveau total d’excitation dépasse un certain seuil, le neurone est à son tour excité et transmet l’information à ses terminaisons (en vert) qui sont elles-mêmes connectées aux dendrites d’autres neurones. Et bien le neurone artificiel s’inspire du même principe : il fait la somme des signaux x qui peuvent être des données d’entrée ou le résultat d’autres neurones artificiels (on appelle cette étape agrégation), il vérifie que cette somme dépasse un certain seuil, ou pas et si c’est le cas, le résultat y vaut 1, sinon il vaut 0 (c’est l’étape d’activation). Notez que lors de l’agrégation, toutes les entrées n'ont pas la même influence. Celle-ci est définie par les paramètres w. On appelle cela les poids et c’est de ces poids que dépend la fonctionnalité du neurone. A l’époque nos 2 mathématiciens suggéraient déjà qu’on pouvait organiser les neurones artificiels en réseau. Mais il y a un hic ! Ils n’ont pas proposé d’algorithme permettant d’ajuster automatiquement les poids w, ô combien importants pour pouvoir définir la fonctionnalité qui ressortira du réseau de neurones, il fallait donc les définir à la mimine ! L'engouement pour l’IA est retombé comme un soufflet. Pfffft ! 💨 Il faut attendre 1957 avant que ne soit proposé le premier algorithme d’apprentissage automatique du neurone artificiel. L’idée est proposée par le psychologue Frank Rosenblatt et s’inspire toujours du principe de fonctionnement des vrais neurones. En gros, quand 2 neurones reliés entre eux sont excités en même temps, la connexion entre eux est renforcée. L’algorithme d’apprentissage s’appuie sur cette idée là. Dans la pratique, avant l’entraînement, on donne une valeur aléatoire à tous les poids w. Ensuite, on fait passer les entrées x dans le réseau de neurones qui calcule un résultat y. On compare ce résultat aux données d’entraînement y réelles. On ajuste les poids w de manière à ce qu’ils donnent un résultat plus proche des données réelles. Puis on recommence : on fait passer les entrées x dans le réseau de neurones qui calcule un résultat y. etc etc… Et ainsi de suite jusqu’à ce que la marge d’erreur ne bouge plus. Mais il y a encore un hic ! L’algorithme d’apprentissage proposé à l’époque ne pouvait fonctionner que sur une seule couche de neurones, et ne pouvait donc résoudre que des problèmes qui pouvaient être représentés par une droite. Alors ici, séparer 2 catégories avec une droite pas de problème. Mais là, par contre, on est comme des cons. Le soufflet retombe à nouveau. Pffft ! 💨 Il faut attendre 1986 pour que soit mis au point un algorithme d’apprentissage automatique multi-couche sur une idée proposée en 1974, la back-propagation. Je ne vais pas vous assommer avec des détails techniques, ce sont des math un peu bourrues. Retenez simplement qu’il s’agit d’un algorithme d’apprentissage qui parcourt le réseau de neurones à l’envers pour pouvoir ajuster les poids (d’où le “back”). Les étapes restent toujours les mêmes : Donner une valeur aléatoire à tous les poids. Faire passer les entrées x dans le réseau de neurones qui calcule un résultat y. Comparer ce résultat aux données d’entraînement y réelles. Ajuster les poids w de manière à ce qu’ils donnent un résultat plus proche des données réelles. Faire passer les entrées x dans le réseau de neurones qui calcule un résultat y. etc etc… Si on prend l’exemple d’un réseau de 3 neurones répartis sur 2 couches, on peut déjà résoudre des problèmes plus complexes. Bon, affichons notre petit réseau de neurones avec les opérations que fait chaque neurone. Le truc qu’il faut noter quand vous utilisez une IA, c’est qu’à ce moment-là, elle a fini son entraînement. Les poids w, ils ne bougent plus. Et donc, qu’est ce qu’il fait, là, le réseau de neurones, quand vous l’exécutez ? Il fait juste une grosse suite de multiplications et d’additions… Et c’est tout ! Vous pouvez voir ça comme un méga filtre Photoshop qui fait une opération différente à chaque pixel. J’ai d’ailleurs testé des IA qui ne faisaient pas mieux que des filtres Photoshop. ¬¬ C’est con, hein ? 😄 C’est fou ce qu’on peut faire avec de simples additions et multiplications. Comme vous pouvez le voir, le neurone artificiel ne fait que s’inspirer du principe de base des neurones de notre cerveau, il ne les simule pas. Pour cela il faudrait aller bien plus loin, simuler les réactions chimiques selon les types de neurotransmetteurs et bien d’autres choses que mes maigres connaissances en neurologie ne sauraient vous lister… Le bout de code du neurone artificiel est beaucoup trop simple pour prétendre simuler tout ça. Un réseau de neurones artificiels n’a donc pas grand chose de commun avec un cerveau bien réel. En fin de compte, dire que ce genre d’algorithme peut développer une conscience c’est un peu comme dire que le blender de votre cuisine peut en développer une aussi. Bon, alors du coup, si cet algo est aussi vieux et simple, pourquoi ce type d’IA n’explose que maintenant ? Et bien l’étonnante simplicité du deep learning est aussi son point faible. Outre le fait qu’elle présente, par principe, une limite à la perfection des résultats qu’elle peut produire, celle-ci ne peut fonctionner qu’avec une très grande quantité de données. Sans données pour l’entraîner, une IA créative ne peut générer qu’un bruit aléatoire. Pour pouvoir entraîner des IA de génération d’images, il a donc fallu attendre l’explosion des réseaux sociaux et des smartphones. Les données, on en avait pas assez avant. Second problème, plus un projet d’IA de ce type est ambitieux, plus il faut de neurones et de couches de neurones et plus il faut de données, et plus vous avez de neurones à entraîner et de données, plus l’entraînement est long, et donc, pour économiser du temps, il faut plus de puissance de calcul. La puissance de calcul, on en avait pas non plus assez avant pour avoir des temps d’entraînement raisonnables. Non, le deep learning, ce n’est pas du tout un algorithme éco responsable. x) Pour parler plus grassement, en fin de compte, un projet de Deep Learning, c’est un concours de bites : plus on veut faire un projet ambitieux, plus il faut de moyens (recruter des data scientistes pour récolter et traiter les données, louer des cartes graphiques sur le cloud ou disposer de son propre centre de calcul). Les limites de Midjourney, Dall-E & co Pour en terminer avec le fonctionnement des IA, voici une petite analyse plus poussée des limites des IA génératives actuelles. Pour commencer, voici des captures des galeries de Stable Diffusion et de Midjourney. J’ai aussi refait la même recherche que Spartan sur les démons pour Stable Diffusion. Y’a pas un truc qui vous fait tiquer tout de même ? Une IA c’est très fort pour recracher des choses qui ressemblent aux données d’entraînements, mais c’est beaucoup plus à la peine pour faire quelque chose de nouveau et dans ces galeries on ne vous affiche que les résultats les plus réussis, et dans les résultats les plus réussis, qu’est-ce qu’on trouve majoritairement ? Des portraits, des légions de portraits ! Les concepts de personnages ont tous à peu près le même posing et si on inclut les quelques décors on constate que tout est vu à hauteur d’yeux. Par contre, pour les keyframes du genre un personnage accroupi qui observe une fleur vu en plongée, un bonhomme qui surfe sur un skate volant vu en contre plongée ou 2 personnages qui font un câlin, on repassera. C’est pour ça que la tentative de dragon cyberpunk de Spartan s’est soldée par un bel échec critique : des images de dragons, on en trouve à la pelle, des images de dragons cyberpunk, vachement moins ! Alors, pourquoi cette limitation ? C’est simple, la nourriture des IA, les données, est aussi leur plus grand point faible. Le fait est que sur Internet vous trouverez plus de portraits vus à hauteur d’yeux que de keyframes de malades avec des cadrages improbables, et les personnages qui se tiennent debout dans des poses peu originales, c’est quand même plus facile à dessiner, donc il y en a aussi plus de que des poses complexes. Fatalement, les IA sont plus douées pour recracher ce type de contenu. C’est pas une surprise. Cependant, des photos et des dessins avec des personnages dans des positions variées, il y en a aussi sur Internet, alors pourquoi ces IA sont-elles paumées avec des demandes anatomiquement plus complexes ? C’est simple, elles s’entraînent sur la base de couples image/description et les descriptions des images ne sont absolument pas écrites par les data scientistes de l’équipe de développement, ils ne sont pas assez nombreux. Non, ils utilisent tout simplement des bots qui vont lire la description que l’auteur de chaque image a rédigé et les mots clé qui vont avec. Mettons, vous faites un beau keyframe avec une scène d’action ou une étude de modèle vivant. Lorsque vous publiez votre image sur le net, est-ce que vous vous amusez à rédiger une description complète du posing et du cadrage comme si vous vouliez qu’un aveugle puisse “visualiser” avec précision le contenu de votre image ? Non. Par conséquent, il y a un trou dans les données et l’IA se retrouve avec des images dont elle ne sait pas trop quoi faire et des possibilités qui ne lui sont pas accessibles. Ceci pose d’ailleurs un problème plus grave : les biais culturels et les stéréotypes. Sans traitement manuel, ce que les IA recrachent est à l’image du contenu qu’elles trouvent sur Internet. C’est d’ailleurs comme ça que les tentatives d’IA de conversation ont fini par tenir des propos racistes et que le portail francophone de Google a un jour affiché l’affiche du film Black Panther associée au titre La Planète des Singes en faisant passer ça pour une fiche d’Allo Ciné. Les activistes d’extrême droite savent très bien comment fonctionne le deep learning et comment entuber une IA de ce genre. C’est simple : il suffit de publier une association entre une image et un texte de façon à ce qu’elle devienne plus fréquente que l’association affiche/titre originale. Les développeurs de Craiyon font d’ailleurs une mise en garde à ce sujet dans leur FAQ. https://www.craiyon.com C’est écrit aussi sur le site de Stable Diffusion : https://stability.ai/blog/stable-diffusion-public-release En parlant de câlins, voici un test que j’ai fait avec Midjourney. Décryptage d’un petit exemple. Je lui ai demandé de me “dessiner” les pilotes de Formule 1 Max Verstappen et Lewis Hamilton qui se font un câlin. Voici le résultat après plusieurs itérations. Oui, c’est dégueulasse. Y’a des trucs malaisant. Désolée si vous étiez en train de manger. :’D Ici encore, le point faible, ce sont les données. Sur cette image, avec les copains, on soupçonne Midjourney d’avoir utilisé des morceaux d’un autre pilote pour recréer Max Verstappen : Charles Leclerc. Alors pourquoi ça fait ça ? Et bien, toujours pour la même raison. Midjourney et ses semblables utilisent des couples image/description pour s’entraîner et pour des pilotes de F1, nul doute qu’elles vont piocher les descriptions dans les articles de presse associés aux photos des pilotes ou les hashtags d'Instagram. Sauf que, ces IA, elles sont un peu con con quand même. Charles Leclerc et Max Verstappen sont deux pilotes qui se connaissent depuis tout petits à batailler en piste depuis le kart jusqu’à la F1, il est donc impossible de parler de l’un sans parler de l’autre. Par conséquent, les IA ont trouvé des photos de Charles Leclerc associées au nom de Max Verstappen. Et ne parlons même pas des tas de pécores sur Instagram qui ajoutent des tonnes de hashtag à la pertinence discutable sur leurs publications. ¬¬ Sans oublier les photos où les 2 pilotes sont présents. Résultat, les IA pondent des images de Max Verstappen en prenant des bouts de Charles Leclerc. Et patatra ! Ça donne ce genre de truc étrange… Avec une bouche à l’envers qui bave. 😂 Spartan pense que tous ces défauts seront gommés avec le temps. Voici ce qu’il faudrait faire pour y parvenir : Le fait est, que sur internet, la majorité des images que l’on trouve n’est pas associée à une description exacte de ce qu’elle affiche, et c’est la principale limite qui empêche d’aller plus loin. Pour contourner cette limite, il faudrait renoncer au crawling automatique du contenu du web et recruter des armées entières de gens qui rédigent une description exacte de chacune des milliards d’images utilisées pour entraîner les IA. … On parle de boîtes qui ne sont même pas fichues de recruter assez de monde pour cliquer sur un bouton “Supprimer” à la chaîne pour modérer les contenus haineux et qui sont même en train de licencier du monde en ce moment parce que leurs revenus sont en baisse (Coucou Meta ! ). ¬¬ Le nerf de la guerre, ce sont les données, leur quantité ET leur qualité. Faire avaler des pétaoctets de données à une IA ne sert à rien si on ne les nettoie pas et ne les traite pas avant. Et si elles sont trop chaotiques, il faut se taper le boulot à la main. Stratégie pour hacker les IA Ces IA donnent du pouvoir au camp des clients, mais en s'intéressant au fonctionnement du deep learning et aux cas de fiascos connus on peut se rendre compte que nous aussi, les artistes, avons un certain pouvoir. On peut pointer du doigt les activistes d’extrême droite pour leurs valeurs discutables mais on peut aussi les remercier de nous avoir montré la voie pour mettre du poil à gratter à ces entreprises qui utilisent nos images sans nous demander notre autorisation. Il suffit pour cela de s’attaquer au principal point faible des IA : en sabotant les données ! Voici plusieurs pistes pour ce faire. La première : comme expliqué plus tôt, il y a des trous dans les données qui font que les IA ne savent pas tout faire. Et bien on peut agrandir ces trous volontairement, en arrêtant de poster des portraits et des poses basiques, en nous efforçant de dessiner davantage de poses et de cadrages complexes (c’est pas un mal, ça nous fera progresser 😛 ) et lorsque nous postons nos images, ne surtout pas rédiger de description précise de leur contenu et réduire le nombre de hashtags aux seuls 2 ou 3 les plus pertinents. Ainsi, les IA n’ont aucune chance d’apprendre correctement l’anatomie et la perspective. La seconde : injecter de la merde. Les gens qui mettent des tonnes de hashtags à la pertinence discutable sur Instagram, finalement ils sont pas si cons. Petit exemple : Imaginons que vous dessiniez un Sangoku, seul, en train d’exécuter un Kaméhaméha. Lorsque vous postez l’image sur le net, premièrement, ne décrivez toujours pas la pose et le cadrage exact. Par contre, vous pouvez vous amuser à raconter ce qu’il se passe hors champ, des choses qu’on ne voit pas dans l’image, sans préciser que c’est hors champ (le visiteur humain le comprendra tout seul). Par exemple, que Sangoku va jeter son Kaméhaméha sur Végéta, ou Freezer, ou Cell… Et dans les hashtag ajouter des personnages qui n’apparaissent pas dans l’image, genre #vegeta #cell #freeza #gohan… Ou d’autres hashtags avec un lien éloigné. Comme ça, les IA seront dans la confusion. On peut même pousser le vice en associant ces hashtags à des contenus NSFW. 8D L’idée c’est de rendre le traitement des données impossible de façon automatisée et trop coûteux à la main. Si on s’y met massivement, il y a moyen de geler la progression de ces IA. A titre individuel, il n’y a pas grand chose à faire, juste être un peu attentif à la manière dont on décrit nos images quand on les poste sur Internet, voire être carrément flemmard et en écrire le moins possible. x) Plusieurs IA basées sur le contenu du web ont été sabotées de cette manière par le passé, parfois jusqu’au retrait du marché, donc il n’y a pas de raison qu’on ne puisse pas recommencer. La chose importante à garder en tête c’est que ce qui coûte le plus cher dans le développement d’une IA c’est la récolte, le nettoyage et le traitement des données et on peut rendre ça déraisonnablement cher. Alors en effet, je suis très sarcastique à propos des IA similaires à Midjourney. D’une part je suis assez fatiguée des discours binaires type “On va tous mourir” ou “C’est fantastique ! C’est la révolution !” qui survendent ces IA. D’autres part, j’en ai testées un certain nombre et je les ai trouvées tout à fait inexploitables pour mes projets et mes workflows. Je ne dis pas que ça ne servira à personne, mais ça ne colle pas à mes besoins spécifiques, voilà tout. Pour autant, je ne crache pas sur la technologie du Deep Learning en elle-même. Au contraire, je la trouve super intéressante, mais je vois sa place davantage pour des tâches exécutives spécialisées que pour des tâches créatives généralistes. Bon, maintenant qu’on a vu comment ça fonctionne, abordons la partie fun de l’article. Faire une IA soi-même ! \o/6 points
-
4 points
-
Bon voici le process pour Vilador, 1. sketch rapide du design avec déjà qlq idées en tête. 2.sketch grandeur nature avec les valeurs pour voir vite fait ce que ca donne. 3. Petit line convenable avec 2 3 idées qui sont venues entre temps pour avoir une idée claire du personnage. 4. shading + clean un peu avec un peu de valeur pour avoir une référence correcte du perso 5.(que j'ai pas encore fait) mettre les couleurs. PS: Bonne chance à ceux qui participent à ce challenge 👍4 points
-
Bonjour Péguy ! Pour commencer, Péguy, c’est quoi ? C’est le nom que j’ai donné à une suite de petits outils que j’ai développés pour accélérer mes workflows. Je compte distribuer certains d’entre eux au public lorsqu’ils auront une interface user friendly. D’autres sont vraiment trop spécialisés pour que quelqu’un d’autre que moi puisse leur trouver une utilité. Il s’agissait à l’origine d’outils de génération procédurale, d’où le nom Péguy. (Procedural Generator => PG => Péguy) Puis ils se sont généralisés à toutes sortes de tâches répétitives. Depuis quelques mois, quand j’ai découvert que le deep learning était accessible au particulier, je me suis dit qu’il pourrait être intéressant d’ajouter cette technologie à mes outils. J’ai donc avalé des formations et des tutos et acheté des bouquins sur le sujet. Et aujourd’hui, je peux vous présenter un premier prototype ! 😄 Alors je ne vous cache pas que si vous n’avez pas de bases en programmation et en math Bac+2, ça va être chaud de faire ça vous-même. Mais si c’est le cas, alors pas de soucis, des tutos et un bon ordi personnel feront le taff. 🙂 Au pire, pour la phase d’entraînement, la location de ressources de calcul sur le cloud est accessible aux particuliers. Bon ! Ma petite IA, qu’est-ce qu’elle fait ? J’ai décidé de commencer par quelque chose de simple, mais qui est néanmoins l’étape la plus chronophage quand je la fais à la main (même numériquement) sur mes projets de BD : l’encrage. Voici ce qui se passe : j’envoie mon crayonné à mon IA, puis celle-ci me retourne une version encrée au bout d’une ou deux minutes. Je ne m’attarde pas sur le code, d’une part ça vous embrouillerait, d’autre part, je n’ai rien fait d’extraordinaire. J’ai juste repris le code d’un tuto dont je mettrai le lien à la fin, j’ai du retoucher un réglage ou 2 et je lui ai juste fait avaler mes propres données pour l’entraînement au lieu de celles proposées dans le tuto. En fait, il faut retenir que le code source d’une IA est hyper standard et générique et que ce qui fait la vraie spécificité d’une IA, ce sont les données d’entraînement qu’on lui fait avaler. En somme, pour ce projet, la création et le traitement des données, c’est 90/95 % du boulot que j’ai fourni. Je vous explique comment j’ai fait. Le nerf de la guerre : les données d’entraînement Alors ici, pas de problème de droit d’auteur. J’ai entraîné mon IA sur la base de mes propres dessins uniquement. Affaire résolue donc. Comme je l’ai mentionné plus tôt, la qualité des données est primordiale et si j’avais dû construire mes données d’entraînement sur la base de données du web, je m’en serais pas sortie. Il aurait fallu trouver des couples crayonnés/encrages de haute résolution (déjà, ça c’est pas gagné) et qu’à chaque fois, le fichier de crayonné et le fichier d’encrage aient la même résolution et ne soient pas décalés. Bref ! Mission impossible. x) On vous montre beaucoup d’IA basées sur le données du web, mais en vérité, pour faire une IA spécialisée de qualité avec des données de qualité, le mieux, ça reste de fabriquer ses propres données soi-même dans des conditions contrôlées. Ha bah oui, tout le monde peut pas le faire. Faut encore savoir dessiner. Comme quoi, c’est toujours utile d’apprendre la compétence. x) Vous vous dites sûrement “Ha mais tout de même. Des données il en faut beaucoup. Faire assez de dessins tout seul pour qu’une IA fonctionne, ça doit être chaud quand même.” Alors en fait, pas tant que ça. La vérité, c’est que plus une IA est complexe, plus elle aura besoin de données et inversement, plus elle est simple, moins elle en aura besoin. Par conséquent, les Midjourney et compagnie, sont des projets tellement ambitieux qu’ils nécessitent effectivement des quantités astronomiques de données, mais un petit projet très spécialisé comme le mien, beaucoup moins. Mais alors vraiment beaucoup beaucoup moins. L’autre point c’est d’analyser ce qu’on veut vraiment que l’IA sache faire. Ici, on veut qu’elle sache encrer un dessin. Grosso-modo, détecter le coup de crayon final et le repasser à l’encre. Est-ce qu’on a nécessairement besoin d’avoir de beaux dessins figuratifs avec des poses complexes et variées, craqués de détails dans tous les sens qui nous prennent des heures de travail ? Non. Que vos données d’entraînement soient des illu de malade ou des crobards faits à l’arrache, l’IA, elle s’en contre-branle. Elle veut juste savoir repasser un trait de crayon. Voilà donc ce que j’ai fait : j’ai pris mon carnet et j’ai crayonné dedans des tas de petits crobards abstraits ou figuratifs, des motifs et des effets de textures, je les ai scannés et je les ai encrés dans Clip Studio Paint. J’en ai fait 120 comme ça. Pas plus. Bon, alors 120 images, c’est vrai, c’est un peu léger pour entraîner une IA. Mais c’est pas grave, pas besoin d’user davantage de jus de coude. On peut augmenter la quantité de données artificiellement. Si si, c’est une vraie technique. x) Le principe est simple : il suffit de créer de nouvelles images en puisant dans les données réelles, en combinant plusieurs images, en les décalant, en les tournant et en les redimensionnant. C’est ce que j’ai fait. J’ai créé un programme qui pioche plusieurs dessins originaux au hasard et les combine. J’ai ainsi multiplié la quantité de mes données par 10 ! 1200 dessins, là ça devient intéressant ! Maintenant il n’y a plus qu’à entraîner l’IA. Les algorithmes d’entraînement des IA sont optimisés pour tourner sur des cartes graphiques Nvidia. Malheureusement, comme j’ai un Mac et donc une carte AMD, j’ai dû me contenter du processeur. Mais il est costaud, donc il s’en est sorti. La session d’entraînement a pris quelques jours. … Quelques jours de bruit de ventilo en continu. Faut être patient. 8D Bon, maintenant voyons ce que ça donne. Le résultat actuel Alors en vérité, j’ai fait 2 sessions d’entraînement de mon IA et j’ai conservé les 2 versions. La première avec une première version de mes données, la seconde avec une version améliorée de mes données. Pour cette présentation, je suis partie d’un crayonné que j’ai réalisé récemment dans le cadre de mes recherches pour le nouveau challenge. Le voici. En faisant passer ce crayonné dans la première version de mon IA, voici ce que j’ai obtenu. Bon, pas folichon. Les traits de construction sont toujours là. A vrai dire, ça ressemble encore à un crayonné. Quel est le problème ? Les données d’entraînement, toujours. Si vous retournez voir les données d’entraînement que j’ai montrées plus haut, vous pourrez noter 2 problèmes. Le premier : les crayonnés n’ont aucun trait de construction. Comme c’était des dessins extrêmement simples, je les ai quasiment tous tracés d’un coup sans quasiment aucun trait de construction. Le second : lors de l’encrage, j’ai été trop fidèle au crayonné. Je l’ai repassé scrupuleusement. La conséquence, c’est que l’IA aura tendance à encrer le moindre coup de crayon qu’elle trouve, dont les traits de construction et la moindre poussière qui passe par là. J’ai donc dû retravailler mes données pour entraîner une seconde version de mon IA. Pour cela j’ai ouvert mes crayonnés dans Clip Studio Paint et j’ai ajouté des tas de petits traits de construction ou d’hésitation avec un brush crayon. J’ai aussi ajouté un petit flou gaussien à mes coups de crayons numériques parce que le grain du brush est plus net que celui du crayon tradi. Je me méfie parce qu’une IA ça peut être extrêmement con de précision donc je veux m’assurer qu’elle ne soit pas capable de distinguer un coup de crayon tradi d’un coup de crayon numérique. Ensuite, j’ai refait l’encrage, mais cette fois, je l’ai fait à la fois plus propre et moins fidèle au crayonné. Si je trouvais des tremblotements sur une courbe, je ne les suivais pas, je faisais une courbe propre à la place. Une fois mes dessins retouchés, je les repasse dans la moulinette à multiplication et c’est reparti pour plusieurs jours d’entraînement ! Et voici ce que ça donne avec la seconde version de mon IA. Sans être parfait, c’est déjà mieux. Il reste beaucoup moins de traits de construction. Notez que je n’ai pas augmenté la quantité de données d’entraînement, je les ai seulement modifiées pour qu’elles soient plus proches d’un cas pratique. J’insiste beaucoup sur la qualité des données, mais comme vous pouvez le voir, ça a un impact évident. Augmenter la quantité de données peut être intéressant, mais à la condition de s’assurer que ces nouvelles données apportent une diversité réelle. Je pense que si j’augmente mes données davantage en demandant à mon programme d’augmentation artificielle d’en créer plus ça n’améliorera pas ou très peu le résultat. Paradoxalement, dans le cas présent, avoir des données de qualité revient à avoir des crayonnés plus sales. x) On revient toujours au problème de généralisation du modèle. Il faut qu’il soit capable de se débrouiller sur de nouvelles données, pas juste qu’il soit très fort à reproduire les données d’entraînement. Initialement, je prévoyais d’attendre d’avoir fait une troisième session d’entraînement avant de vous présenter tout ça, mais l’actu m’a rattrapée. x) Je vais donc vous expliquer ce que je prévois de faire pour tenter d’améliorer ce projet. Pistes d’améliorations Pour l’avenir, je prévois 2 étapes d’amélioration. La première consiste à enrichir les données avec de vrais dessins et pour ça le inktober est tombé à pic ! J’ai bien pris soin de scanner les crayonnés avant de faire mes encrages tradi. Il me reste à finir les encrages numériques. J’ajouterai probablement les crayonnés de mes recherches pour le challenge aussi. La seconde : modifier mon réseau de neurones pour pouvoir traiter des images de n’importe quel format. Ça ne se voit pas dans l’exemple que j’ai montré jusqu’à présent, mais en fait, mon IA ne sait traiter que des carrés de 1024x1024 pixels. Il y a un pré-traitement qui découpe l’image en carrés de cette taille et s’il y a des carrés incomplets, des pixels blancs sont ajoutés. Ensuite, l’IA traite les carrés un par un indépendamment les uns des autres. Et pour finir il y a un post-traitement qui réassemble les carrés générés par l’IA. Sur cet exemple, c’est visible grâce aux à-plats noirs dont l’interprétation est encore loin d’être au point. Il y a des réseaux de neurones capables de prendre en compte des pixels distants lors du traitement d’un pixel de l’image, ce qui serait bien pour traiter les pleins et les déliés sur des éléments qui occupent plusieurs carrés. Pour cela savoir traiter des images de tailles variées sans les découper serait utile. Il faut que je potasse mes bouquins pour améliorer ce point. J’ai aussi d’autres idées d’IA très spécialisées comme ça, que je voudrais essayer, ainsi que des idées pour “fabriquer” les données d’entraînement qui vont avec mais je vais commencer par améliorer celle-là avant de m’éparpiller. Voilà voilà ! On a fait le tour de cette expérience, maintenant, il est temps de conclure ! 😄4 points
-
Bonjour à tous, j'ouvre un WIP pour le Challenge 15. Première fois que ça m'arrive mais je ne sais absolument pas quel sujet choisir, alors j'ai décidé de commencer par quelques éléments de l'Univers. Donc je commence avec l'héraldique de l'Université de Grondark. Kranos: Je commence le concept de Kranos. Ce n'est pas super propre, mais là, j'essaye de faire le maximum d'itérations le plus rapidement possible. Ensuite, je vais garder les meilleures idées. Voila le design final : Maintenant, on attaque la composition, je suis parti sur l'idée que mon perso travail sur le confectionnement de sa magie de sa chambre d'étudiant. On teste un workflow 3D : D'habitude en ce qui concerne la 3D, je me contente de faire une pose avec Clip studio paint ou d'ajouter quelque volume 3D basique. Mais en parcourant les Wip du Forum, ça m'a donné envie d'essayer d'aller plus loin. Donc j'ai testé Blender. C'est très fun mais j'ai bien galéré, surtout pour les habits, d'ailleurs on voit que ce n'est pas très propre. Mais ce n'est pas bien grave parce que je vais peindre au dessus. Au final je pense que la 3D va représenter 60 à 70 % du travail. Donc pour l'instant ça donne ça : Une petite création d'alphabet magique pour les sorts avec caligraphr : Ensuite j'ai utilisé ses runes pour designer les cercles magiques : Ceux de Leonardia sont plus classiques, ils ressemblent plus à des cercles d’alchimie. Ceux de Grondark, sont plus modernes puisque l'école fut fondée plus tard aussi ils sont plus géométriques pour donner un aspect plus scientifique: Kranos doit mixer les deux formes de magie : Mise à jour de mon illustration : On passe au rendering !3 points
-
Hello ! Premier challenge pour moi ! L'univers et la façon dont il est amené m'inspire vachement, j'ai décidé de franchir le pas et de me lancer 😄 Je commence avec le personnage de Lirana. En faisant des recherches pour m'inspirer, je suis tombé sur une illustration sur Pinterest (ci dessous) qui m'a bien plu : Une sorcière avec un PC portable. Je trouve le concept d'une étudiante d'aujourd'hui dans une université de magie très sympa. Et j'ai bien relu le descriptif, je ne pense pas être hors sujet. Voilà mes premiers coups de crayons ou j'essaye de chercher un peu la base de mon painting : Pour les éléments du monde moderne j'ai mis : un burger et un sac de pharmacie (médocs contre les crises magique), un casque audio et un gobelet de café. A des moments je me dis que ce n'est pas assez pour qu'on comprenne le concept, à d'autres je me dis que le burger est de trop 😅 N'hésitez pas à me faire part de vos remarques 😁3 points
-
3 points
-
Initialement j'ai posté ce sujet dans les WIP parce qu'après tout, mon projet est bien à l'état de WIP, mais si ça peut permettre d'informer les gens et d'apaiser leur anxiété, je ne vois aucun problème à ce que le sujet soit déplacé dans une section plus pertinente. 😄 Le sujet mérite effectivement discussion. Je pense m'attarder sur la question en prenant en compte l'aspect technique. Je ne peux pas le faire de suite parce qu'il faut que je sorte, mais d'ici la fin de la semaine, c'est possible. De mon point de vue, le vrai noeud du problème tient dans la constitution d'une base de données d'entraînement avec des contenus extraits à l'insu de leurs auteurs. Dans le cas d'une base de données d'entraînement construite en toute légalité et toute transparence par des auteurs recrutés à cet effet ou avec des données qui appartiennent à l'organisme qui développe l'IA, j'estime que le statut d'une oeuvre créée à l'aide d'une IA ne devrait pas être différent de celui d'une oeuvre créée avec Photoshop, CSP, Procreate, Blender... Je détaillerai mon point de vue. En vérité j'ai vraiment un problème avec le terme "IA" pour les algorithmes de machine learning. x) En tout cas, si ce contenu vous a plu et paru utile, j'en suis heureuse. Merci à vous d'avoir eu la patience de lire. 😄3 points
-
Wow, je n'ai pas pris le temps de tout lire encore mais sacré sujet que tu nous as fait là, merci beaucoup @Suisei ! C'est inestimable et vraiment bien expliqué. Comme suggéré, si tu es d'accord, je serais ravi de le mettre en avant sur le site. Autant de travail mérite de la visibilité. Et @Neuf150 très bonne idée pour une section dédiée aux IA. On va voir si on fait ça tout de suite ou si on attend un peu. Merci pour la suggestion !3 points
-
Petit récapitulatif avant de commencer des compo, et en bonus, un peu de storytelling ! La naissance de Sviktan Abandonnée à elle-même depuis ses dix ans, après le meurtre de ses parents, riches et redoutés de tous, grâce à leurs pouvoirs et leur emprise sur la société, Sviktan se fît passer pour morte, errant les rues sales d’une grande métropole. Elle réussit, malgré son jeune âge, à se faire respecter. Une aura maléfique émanait de son petit gabarit, car la vengeance et la colère avaient déjà pris le dessus. Sachant que la magie noire permet un pouvoir « dit » beaucoup plus puissant que la magie blanche, elle se dirigea vers celle-ci, influencée par un homme beaucoup plus âgé qu’elle, qui prendra place à ses yeux une image paternelle. Homme qui, était un grand mage de Ruysdran. Elle se fera dévorer par l’obscurité et la folie. Car, derrière son visage glaçant et méprisant, se trouve un être perdu dans le chaos.3 points
-
2 points
-
Coucou, bon je me lance ça fait un moment que je ne dessine plus trop mais un challenge c'est trop tentant pour faire ça larve 😅 alors hop au boulot je me remets en selle ! J'ai commencé par Vilador, je voudrais la représenter avec l'ensemble des éléments qu'elle contrôle donc glace, feu et vent. Pour cela je me suis inspirée d'un personnage que j'aime bien dans my hero academia qui contrôle dans une main la glace et l'autre le feu. Le vent serait en peu partout autour d'elle (surtout au niveau des jambes)... Bon pour l'instant ça fait plein de traits fouillis mais ça rendra mieux avec la couleur 😅 Je mets aussi mes références, n'hésitez pas à me donner des conseils/avis si vous avez ! Bon challenge à tous ! 😉2 points
-
2 points
-
Salut à tous! C'est partit pour mon premier challenge et je me demandais si chacun devais bosser de son côté sans rien dévoiler ou s'il était possible d'avoir quelques commentaires. Et bien je suis content de découvrir qu'il y a moyen de partager ses avancées. Et bien voici pour mon concept de l'intérieur de l'université de Grondark : "la vue de sa forme d’anti-sphère est difficile à appréhender pour l’esprit et je ne parle même pas de ce qu’on ressent lorsqu’on y entre. La gravité peut s’inverser à tout moment et la perception de l’espace change sans cesse. Une salle paraissant toute petite au premier coup d'œil peut grandir démesurément à mesure qu’on avance vers elle et ce n’est là qu’un exemple parmi tant d’autres. C’est étonnant de voir comme les Grondarkiens semblent pourtant à l’aise dans cette construction déroutante…" Je me prends moi-même la tête avec ces formes dans tous les sens! Et au premier plan, Tetram en grande discussion avec un collègue : "Tertram inspire le respect. Sa mâchoire carrée sublimée par une fine barbe souligne bien son crâne rasé sur les côtés et renforce l’aspect rectangulaire presque inhumain de sa tête". Vous reconnaitrez probablement la posture des deux compères ; Aristote et Platon. Je suis preneur de vos commentaires ! Et je vais tenter de mettre tout ça en valeurs pour y voir plus claire! Benji2 points
-
2 points
-
Merci ^^, oui en effet certains croquis sont pas forcément adéquat au brief, on se fait plaisir aha ^^ je pense partir sur la couronne avec le sort où les papiers volent partout ^^ et j'ai fais quelques portraits histoire de découvrir, mais je pense partir avec les cheveux au vent où qui flottent comme dans l'eau ^^2 points
-
@sweetkala Yes merci, je vais tester ça sur l'environnement vu que c'est dans mes capacités de modé 🙂 @Anatem Merci, moi aussi haha 😉 @Le Comte Dentier Merci, je vais pas mentir je préfère la préprod que finir des images. En vrai je vais encore explorer pas mal pour la statue, les idées sorties me semblent encore trop banales pour l'instant (après les derniers designs qui m'ont vraiment marqué ça devait être Ludwig the accursed/les Sanctechair et la DA de Blasphemous, très hispanocentrée) @z.b35 Merci, contente que ça te motive 😛 Pour l'instant je préfère C perso pour la pose qui fait vitef référence à un Caravage, mais je vais explorer encore plus parce que ca reste un asset principal et que c'est pas encore ce que je veux CHAUDVENT Ok c'est ici que je vais avoir besoin du plus de retours vu que je suis indécise et je déteste les rendus 3D de base (du coup je ne serai jamais objective dessus) : TCHAWAMPA Suite recherche statues meh :2 points
-
2 points
-
Hello l'équipe DPS et la communauté ! 🌞 Voici mon Digital Painting d'imagination réalisé en 2h30 environ. Ce n'est pas le premier Digital Painting que je réalise mais j'ai plutôt l'habitude de faire des études. Je rêve de pouvoir dessiner d'imagination (ça doit être incroyable de n'avoir que cette limite-là 😍) et d'avoir un style réaliste. Pour me challenger, j'ai souhaité réaliser un environnement un peu fantastique composé de roches en forme de piques avec certaines pointes en pierres précieuses (améthyste je dirai vu la couleur haha 😄). J'ai utilisé la technique du lasso pour les reliefs mais j'ai eu des difficultés pour représenter la roche, sa texture, son relief... 🤔 Ensuite j'ai placé un personnage mage regardant l'horizon, sa taille permet de mesurer la grandeur de l'environnement (notamment des roches). Pour apporter de la profondeur, j'ai pensé à peindre une rivière. Enfin, j'ai placé des oiseaux pour renforcer l'aspect de plénitude au sommet des montagnes et amener du dynamisme au visuel. N'hésitez pas à me donner vos avis, conseils et critiques svp haha je suis preneur ! 😊 Ils me seront précieux pour progresser en DP. Merci de m'avoir lu et à bientôt pour la suite qui s'annonce PASSIONNANTE !!! 🤗🥰2 points
-
Pour ceux qui veulent tester et s'amuser avec, un lien vers un des packs de brushes de Greg Rutkowski 😉 https://grzegorzrutkowski.gumroad.com/l/pACug?layout=profile2 points
-
Merci Suisei de ces informations très complètes et peut-être difficiles à appréhender pour certains. Mais sa lecture pourra certainement calmer l’angoisse de la plupart des pessimistes. Comme je le faisais remarquer dans un autre post, qui connaît encore le dessinateur d’exécution en publicité ? Et pourtant il y a encore des gens qui font de la mise en page mais avec d’autres outils. En tout cas, je retiens la technique pour berner IA. Le seul sujet, qui pose réellement question, est celui du droit d’auteur… Bon brush. NB : suite à la demande de Vera, il pourrait même créer un forum spécial IA car il y a déja beaucoup de posts…2 points
-
Alors là ! Merci ! Bravo ! Total respect !😍 Tu expliques très bien, admiration pour tout ton travail d'exploration, de tests, de partage, de démystification Juste une suggestion pour rassurer les membres de la communauté qui sont très très inquiets : peux-tu demander aux modérateurs de déplacer ton sujet dans la rubrique "vos ressources" pour le rendre plus visible ? C'est un sujet de fonds qui répond à un énorme questionnement et dans "vos exercices..." il est vite recouvert et on a du mal à le retrouver 😉2 points
-
Merciii beaucoup pour ton message et tes encouragements @Chaz😊 Oui j'ai imaginé une composition un peu complexe, le Programme Indispensable va nous aider pour consolider nos bases en perspective etc ! C'est à nous de jouer pour continuer de progresser 😁 J'espère que le "avant-après" sera à la hauteur de tes compliments 🙂 A bientôt l'artiste (comme dirai notre cher @Spartan de DPSchool haha 🌞)2 points
-
Bon j'ai pas resister, j'ai commencer le painting j'ai pas resister.. je suis totalement impatient (tape sur la main) Ca donne un avant gout de ce que ca pourrait rendre, et ca commence à prendre une direction qui me plait. Maintenant il y a surement pas mal de choses qui vont bouger, notament la shape du rocher je la trouve pas tres impactantes, et pas très interessante, je vais peut etre aussi rajouter une entrée au stade tout au fond de l'image histoire d'avoir un ptit trou de lumière pour faire respirer un peu la scene, je sais pas si je garde cette ambience nuit , mais pour l'instant ca me plait assez( j'aimais bien l'idée que le dernier match de la saison ce passe une nuit de plaine lune, " pouvoir décuplé" plus grand "energie magique dans l'air") si jamais vous avez des idées, ou des choses à dire je suis completement preneur ^^ ! Bonne soirée ! 🙂2 points
-
2 points
-
Oh yeah @Maschu a posté son DP de référence 🥰 je suis contente de le voir ! Hé ben, le moins qu'on puisse dire, c'est que t'as voulu te mettre en danger avec une compo aussi complexe ! J'aime déjà beaucoup la texture que t'as donné à ta montagne aux pointes d'améthystes, le design agressif marche très bien 🙂 Et tu as eu de très bons réflexes pour suggérer la taille du mage, la profondeur... T'as de supers bases ! L'avant-après risque de nous mettre une claque. En tout cas, je me réjouis d'y être ! A bientôt sur le forum (et maintenant sur Discord 🙂 ) !2 points
-
2 points
-
1 point
-
Bonjour bonjour la commu !!! Je me présente : Isa, je dessine depuis un bout de temps, mais je sais que j'ai encore énormément de choses à apprendre. Je suis passionnée et le resterai je crois jusqu'à la fin de mes jours !!! Bon ben voilà je me lance, C'est toujours le sentiment de se jeter dans le vide ... Mais bon, je suis là pour progresser .... Merci déjà pour vos retours 😉 Isa1 point
-
Voilà, je commence à suivre vos cours indispensables. Je sors d'une école en "Game art & Illustration" et je cherche du travail. Mais je ne me sens pas encore tout à fait au niveau, et sur les annonces on cherche des recrues avec plusieurs cordes à leurs arcs. Alors je suis ici pour approfondir et élargir mes compétences. J'espère réussir à suivre le programme car j'ai tendance à ne pas aller jusqu'au bout si je ne suis pas encadrée. Je suis déjà heureuse d'être allée au bout de cette illu 🙂 Au plaisir de lire vos retours !1 point
-
Hello, c'est partie pour le challenge, je suis un gros gros fan de keyframes, je trouve que ce sont les illus les plus impactante! Donc je suis partie sur le ballon prisonnier (première fois dcp que je fais un keyframe) j'ai modé un stade assez basique sur blender histoire d'avoir une bonne pers et une lumière niquel sur les batiments, et puis j'ai cherché des concepts en fonction des différents angles de plans. Je trouve cette approche assez fun et puis ça me met une ptites contraintes en plus qui pousse à la créa. Dcp j'ai fais 4 concepts, si vous avez des retours je suis carrément preneur ! Bonne soirée à tous !1 point
-
1 point
-
1 point
-
1 point
-
Hello @Skylan L'ensemble de tes paintings est vraiment super, bravo ! J'aime particulièrement la manière dont tu as traité la neige 😊C'est très motivant pour la suite continues ainsi 🙂 Peut-être que tu devrais essayer de "flouter" légèrement le contour de certaines feuilles de ta rose notamment celle du fond car comme elles sont toutes nettes ça permettra d'améliorer la profondeur (premier plan, second plan, etc...) et apportera encore plus de réalisme. C'est un p'tit conseil haha, en tout cas c'est génial félicitations encore 😉1 point
-
Salut@BenjiG, je comprends le choix de format, pas bête, par contre, si tu joues sur la hauteur, faut que les valeurs et les lignes de forces aillent dans ton sens, le soucis des trous noirs, c'est qu'ils sont totalement noir, donc ca à des propriétés artistiques assez complexe à exploités, le soucis dans ton sketch ce sont les valeurs / rapport au plan, pour ma part, je trouve le 1er plan nettement moins correcte que ceux derrière lui, avec autant de valeurs claires, on devrait avoir plus de valeurs sombres, à part le trou noir, rien n'est vraiment bas dans les valeurs, surtout au 1er plan encore une fois, petit conseil que je donne souvent, mais quand tu bosses tes valeurs, bosses d'abord les valeurs sombres, plutôt que claires, en gros, bosses les ombres avant de bosser la lumière, je te mets juste après les deux lignes de sens, et tu verras qu'elles vont difficilement vers le trou noir, cela ne veut pas dire qu'elles sont mauvaises ou fausses, mais juste qu'elles ne servent pas ton idée, sinon force et robustesse pour ton digi, les trous noirs c'est vraiment une plaie à dessiner ^^'1 point
-
Lors du line art, n'hésite pas diversifier la taille des traits. Plus fin pour les détails et pour les choses au loin. Plus gros sur les choses au premier plan et les choses plus importantes. Perso j'ai un peu de mal avec le serpent qui attaque le bras de Lirana. C'est peut être le surplus d'infos qui est de trop. Ou trouver un moyen autre de le présenter. Personnellement je ne comprends pas ce que fait ce sort en fait.1 point
-
Haha tu sembles super motivé(e) ! 😄 Bienvenue dans les cours et bon boulot. Le concept est cool en plus, j'aime bien l'idée de l'améthyste incrustée. A ce stade bien sûr tu as des soucis de perspective, de profondeur, etc... Mais c'est normal, tu es là pour les régler. En effet j'ai hâte de voir ce "après" personnellement. On se reverra au dernier Chapitre du coup. Bon cours !1 point
-
J'adore! Pour l'instant, je dirais qu'il faut faire attention à la taille des personnes. Sur ton dessin, les silhouettes ont la même taille mais je suppose qu'elles ne sont pas toutes à la même distance. Si tu rétrécis les personnes plus on va loin, plus ton arbre apparaitra grand. Pareil pour les structures sur les côtés en bas. N'oublie pas les échelles 🙂1 point
-
super travail! Pour rendre l'endroit plus unique, je trouve que les rochers hexagonaux sont vraiment sympa, ce serait pas mal pour les piliers (je crois qu'il y en a). J'aime bien le mélange couleur translucide / souffre. Ca promet!1 point
-
Woah ! Je suis en train de le faire pour ma part, je trouve que tu l'as vraiment bien réussi !1 point
-
Merci beaucoup pour vos messages ! Voilà une nouvelle version de la keyframe du combat sans doute un peu plus lisible (quoique c'est encore pas mal le bazar...). C'est encore très fouillis, je me rends pas très bien compte à quel point la scène est lisible, je mise un peu sur les valeurs pour mettre de l'ordre dans tout ça. 😆 Voilà en plus une nouvelle version de Sviktan. J'aime bien sa tête, mais j'étais pas fan de la déco sur sa robe, ça faisait un peu trop de petits détails en tout genre, et je trouvais ça trop clair donc j'ai tenté des petites modifs : hésitez pas à me donner des avis ou des pistes d'amélioration 😉1 point
-
Si tu relis bien le brief, les persos sont décrits comme humains, seul l'ours est un peu séparé. Si ce n'est pas précisé, tu peux l'imaginer pour l'une des universités que tu souhaites, ou neutre. A toi de voir, tu as le brief, à toi de l'interpréter. 🙂1 point
-
1 point
-
1 point
-
1 point