Classement
Contenu populaire
Affichage du contenu avec la meilleure réputation le 11/08/2022 dans toutes les zones
-
Bibliographie OpenClassrooms, Apprenez les bases du langage Python : https://openclassrooms.com/fr/courses/7168871-apprenez-les-bases-du-langage-python Le Python, c’est un langage très populaire de nos jours. Il est présent dans un tas de domaines différents. Il est utilisé pour scripter ou développer des plugins dans la plupart des logiciels de 3D dont Blender. C’est aussi le langage le plus complet pour faire de la data science et du deep learning. Machine Learnia : https://www.youtube.com/c/MachineLearnia Une chaîne YouTube pédagogique qui propose une initiation au machine learning, au langage Python dans le cadre du machine learning et une troisième sur le deep learning. Je vous recommande d’ailleurs la première vidéo de la formation de deep learning. Elle retrace l’histoire des réseaux de neurones artificiels tout en expliquant les bases de leur fonctionnement. OpenCV Python Tutorial (en English) : https://www.geeksforgeeks.org/opencv-python-tutorial/ OpenCV est une librairie de manipulation d’images. Elle est disponible en Python et dans d’autres langages. Je l’ai utilisée pour mon programme de multiplication des données d’entraînement, entre autres. Réseau de neurones avec Tensorflow : https://khayyam.developpez.com/articles/intelligence-artificielle/tensorflow/ Tensorflow est une des bibliothèques qui permet de monter un réseau de neurones comme un jeu de Lego, de l'entraîner, puis de l’exécuter. Dans ce tuto, on apprend à développer un réseau de neurones capables de classifier des chiffres écrits à la main. Tensorflow et les réseaux antagonistes génératifs : https://khayyam.developpez.com/articles/intelligence-artificielle/tensorflow-gan/ Les réseaux antagonistes génératifs sont les modèles utilisés pour la création d’images. Ils se composent de 2 réseaux de neurones. L’un génère des images, l’autre identifie si une image est réelle ou si c’est un fake généré artificiellement. Les 2 réseaux s’entraînent en tandem : pendant que le discriminateur s’entraîne à distinguer les images réelles des images artificielles avec plus de précision, le générateur s’entraîne à créer des images qui vont tromper le discriminateur. Dans ce tuto, on apprend à créer un réseau capable de générer un chiffre écrit à la main. How to Develop a Conditional GAN (cGAN) From Scratch (en English) : https://machinelearningmastery.com/how-to-develop-a-conditional-generative-adversarial-network-from-scratch/ Dans ce tuto, on apprend à développer un GAN conditionnel. C’est comme le précédent, sauf qu’on précise en entrée quel type d’objet on veut générer dans notre image. How to Develop a Pix2Pix GAN for Image-to-Image translation (en English) : https://machinelearningmastery.com/how-to-develop-a-pix2pix-gan-for-image-to-image-translation/ Il s’agit de l’algorithme que j’ai utilisé ! Il permet de transformer une image en une autre. Il est entraîné sur la base de couples d’images sources et cibles. Et pour finir, les bouquins que je potasse en ce moment. Je les ai achetés à la librairie Eyrolles à Paris. Ils se commandent aisément sur Internet. Voilà, voilà ! Merci de m’avoir lu jusqu’au bout. Je compte sur vous pour envoyer des illustrations hors d’atteinte des IA pour le challenge ! 😄 Bonne nuit ! 😴10 points
-
Yo ! je poste ici mes différents travaux pour le challenge, je compte faire beaucoup de sujets pour ne choisir que mes 3 meilleurs illus à poster à la fin du challenge ! 🙂 Je démarre avec Bayne, j'ai fait 2 planches de concepts pour lui, je vais passer à l'illustration finale demain : Ces concepts ne sont pas définitifs, je changerais peut être 2-3 choses sur l'illustration finale 🙂8 points
-
L’artiste de demain est-il développeur ? Bon, qu’on se le dise, le grand remplacement des artistes par les IA, je n’y crois pas le début d’une seconde. En revanche, ce dont je suis certaine, c’est qu’elles vont transformer le métier comme l’ont fait l’arrivée du numérique puis de la 3D sur le marché à leur époque. De nouveaux outils vont débarquer et avec eux de nouveaux métiers aussi. Avec Photoshop et la 3D, il y a des métiers qui sont nés et qui n’existaient pas avant. Alors oui, ça implique de faire de la veille sur ce qui existe et sort, de se former, de mettre à jour son panel de compétences. C’est la réalité de n’importe quel métier en fin de compte. Enfin, à condition de changer d’approche. Une collaboration constructive plutôt qu’une guerre destructrice Les boîtes qui développent ces IA de génération d’image à partir de texte se plaisent à faire le buzz en montrant les résultats les plus réussis et les artistes qui s’en servent, même expérimentés, sont plutôt avares en informations quant au nombre de tentatives et aux prompts qu’ils ont utilisés pour obtenir les résultats qu’ils affichent. Mais personne ne parle des 99,9…% de déchets inutilisables parce que la moitié des infos du prompt sont zappées, sans parler de l’anatomie et de la perspective mal assimilées. L’approche est à la fois trop ambitieuse et trop naïve (en plus d’être légalement discutable vis-à-vis du droit d’auteur). Le seul moyen d’avoir assez de données pour cela, c’est d’aspirer les données du web à l’aide de bots. Sauf que ces données, comme expliqué plus tôt, sont chaotiques. Elles comportent des trous et des hashtags non pertinents. Le problème avec le deep learning, c’est que si on n’améliore pas la qualité des données dont on dispose déjà, en ajouter davantage n’améliore pas la qualité de l’IA. On atteint un plafond. L’IA peut même régresser si les nouvelles données injectées sont corrompues avec davantage de trous et de descriptions et hashtags incohérents. Pour dépasser ce plafond et améliorer l’IA, il n’y a pas 36 solutions : il faut retaper la description de chacune des images récoltées sur le web. Vu la quantité, c’est juste IM-POS-SIBLE. x) En fait, il y aurait une possibilité : que les auteurs de chaque image eux-mêmes le fassent… Mais je ne pense pas qu’il soit malin de compter sur eux pour faciliter la tâche de ceux qui pillent leurs créations. Avec la hype, des petits clients type particuliers, petits éditeurs ou artisans vont peut-être être tentés de passer par les IA pour créer leurs images. Ils vont essayer… Mais alors gare à la déception. Reprenons l’exemple du Sangoku qui fait son Kaméhaméha. Imaginez qu’un client potentiel décide de demander ça à une IA plutôt que de commissionner un artiste. Je viens de tester Stable Diffusion. Après une bonne vingtaine de rendus, alors il y a des rendus pas mal où on reconnait un peu Sangoku… Des rendus que je soupçonne d’être obtenus à partir d’une ou deux images seulement aussi (ça renifle le surentraînement). Mais la pose iconique du Kaméhaméha, impossible de l’avoir, ni de près, ni de loin ! Le client, il sera bien obligé de revenir commissionner l’artiste. x) Je pense que les petits clients qui auront été tentés de faire des économies vont vite revenir vers les petits artistes après s’être bien cassés les dents sur des résultats à côté de la plaque où à la qualité discutable. Je vous encourage vraiment à tester ces IA par vous même pour vous en rendre compte, même si vous ne les aimez pas. On craint ce que l’on ne connaît pas, mais on ne craint pas ce que l’on connaît. Si vous avez des idées précises de ce que vous voulez faire ou un brief d’un client à tester, vous verrez que tirer ce que vous voulez de ces IA, c’est… délicat. Pour vraiment passer outre ces défauts, je pense qu’une autre approche va s’imposer. En vérité c’est une approche utilisée depuis bien longtemps parce que le manque de données et de puissance de calcul l’imposait : La spécialisation. Plutôt que d’avoir une grosse IA généraliste qui essaie de créer une image de A à Z pour un résultat approximatif qui nécessitera souvent beaucoup de retouches, combiner plusieurs IA très spécialisées sur les étapes les moins créatives et les plus laborieuses du workflow. Ces IA pourraient donner des résultats beaucoup plus qualitatifs, nécessitant beaucoup moins de retouches, tout en nécessitant peu de données et de puissance de calcul. Piocher ces données sur Internet n’est pas la bonne idée, outre le problème des droits d’auteur, je vais le répéter, sur Internet vous ne maîtrisez pas la qualité des données. Non, le plus simple, c’est de travailler en collaboration avec les artistes. Les recruter pour qu’ils créent les données d’entraînement en échangeant avec eux sur ce qu’on veut que les IA maison sachent faire. Ainsi, la qualité des données sera sous contrôle et normalisée. Ainsi, on peut créer des IA spécifiques aux besoins d’un studio, voire d’un projet. On peut tailler des IA sur mesure qui rendront un style spécifique et unique. Je pense qu’il peut ressortir quelque chose de beaucoup plus positif si les développeurs et les artistes travaillent en collaboration plutôt que les uns contre les autres. Bon, et l’artiste de demain, est-ce qu’il est développeur ? Je pense que de nouveaux profils d’artistes peuvent émerger avec ces nouvelles technologies. Comme pour la 3D avec laquelle un certain nombre d’artistes sont devenus plus techniques à devoir manipuler davantage de chiffres et de math. Les systèmes nodaux de Blender et de Houdini sont d’ailleurs des sortes de langages de programmation. La plupart des logiciels de 3D sont d’ailleurs scriptables avec le langage Python. Un artiste qui a des bases dans ce langage peut donc encore plus tirer partie de ces logiciels. Et bien ça peut être pareil avec les IA. Un artiste qui s’initiera à la data science pourra créer ses propres IA à son image, avec son style, pour réaliser ses propres projets, réaliser des projets plus ambitieux que si cette technologie n’existait pas, ou il pourra mettre en valeur sa compétence double sur le marché du travail. Par contre, un développeur pur jus qui n’a jamais touché un crayon de sa vie ne pourra jamais remplacer l’artiste. Si on reprend la démarche de construction des données de ma petite IA, je doute que quelqu’un qui n’a jamais dessiné de sa vie aura l’idée de prendre en compte les traits de construction, le grain du brush numérique ou de faire des pleins ou des déliés sur ses encrages. Et puis il ne saura tout simplement pas faire de crobards corrects. Oui, le métier va sûrement changer. Les budgets pour des projets d’un même niveau d’ambition vont sûrement baisser et la taille des équipes aussi. Mais qui dit budgets plus modestes dit aussi projets plus accessibles à des petites structures qui ne pouvaient pas les faire avant et aussi possibilité de court-circuiter les producteurs et éditeurs frileux pour faire des projets plus innovants sur le plan créatif. Les indépendants auront plus de possibilités.7 points
-
Hello, la compagnie ! Je ne souhaitais pas sortir cet article tout de suite car je voulais améliorer un peu mon projet avant, mais comme @Spartan de DPSchool vient de sortir une nouvelle vidéo sur le sujet, je me suis dit que, actu oblige, c’était le bon moment pour casser un peu les mythes et les fantasmes qui tournent autour des IA en apportant un éclairage un peu plus technique. Vu les projets mis en avant par les médias, il y en a sûrement parmi vous qui imaginent que les IA qui font tant parler d’elles de nos jours sont des monstres de code compliqué à la portée des seules multinationales de la tech. Que nenni ! On peut développer sa propre IA de génération créative, tout seul, chez soi, dans ses charentaises. Je ne vous charrie pas, il y a des tas de tutos sur le net et des bouquins sur le sujet dans le commerce ce qui m’a permis de développer la mienne. 😄 Je vous les liste à la fin. Je vais présenter tout ça en détail et vous allez découvrir que ce qui est en train de bousculer le monde actuel n’est en réalité qu’un bout de code tout con né avant vos parents. Je déconne pas. Petit sommaire : Comment ça marche ? Le principe de base du machine learning Le deep learning Les limites de Midjourney, Dall-E & co Stratégie pour hacker les IA Bonjour Péguy ! Le nerf de la guerre : les données d’entraînement Le résultat actuel Pistes d’améliorations L’artiste de demain est-il développeur ? Une collaboration constructive plutôt qu’une guerre destructrice Bibliographie Je découpe ça en plusieurs messages parce que j’ai beaucoup à dire et à montrer.6 points
-
Comment ça marche ? Pour commencer, faisons une petite précision sur le type d’IA qui fait beaucoup parler de lui de nos jours, il s’agit du deep learning. L’intelligence artificielle est en réalité un champ d’étude très vaste regroupant des sous domaines qui ont eux-même des sous domaines. Le machine learning est un sous domaine de l’intelligence artificielle et le deep learning est lui-même un sous domaine du machine learning. Je vous explique le principe de fonctionnement sans vous assommer avec les détails techniques. Vous verrez que finalement, qualifier ces algorithmes d’”intelligence” artificielle est un putain d’abus de langage. Le principe de base du machine learning Bon, vous allez être un peu surpris mais… Le machine learning, vous en avez tous fait à l’école sur papier. Si si ! Je vais vous montrer. Vous avez sûrement déjà vu ce genre de graphique et on vous sûrement déjà demandé de tracer à la règle une droite qui passe le plus près possible de tout ces points. Pour l’anecdote je me souviens l’avoir fait en cours de physique au collège. La prof nous avait donné un graphique avec des mesures de la température d’ébullition de l’eau en fonction de l’altitude. Elle nous a demandé de tracer la droite la plus proche possible de tous les points, comme ceci : C’est une fonction affine de type y = ax + b. Ensuite, elle nous a demandé de placer 2 points dessus et de mesurer leur position pour calculer les paramètres a et b de la fonction affine et pour finir, à l’aide de ces paramètres calculés, elle nous a demandé de prédire la température d’ébullition de l’eau pour une altitude donnée. Et bien voilà, le machine learning, ce n’est rien d’autre que ça : utiliser les données récoltées pour calculer les paramètres a et b optimaux pour construire un modèle de type y = ax + b qui soit capable de prédire la valeur de y par rapport à une donnée x avec la marge d’erreur la plus petite possible. C’est con, hein ? 😄 Comme vous pouvez le voir, la droite n’est qu’une approximation et il est impossible de la faire passer par tous les points. Tout ce qu’on peut faire c’est essayer d’avoir la marge d’erreur moyenne la plus petite possible, mais elle ne pourra jamais tomber à zéro. Alors on pourrait imaginer un modèle beaucoup plus compliqué capable de passer par absolument tous les points, comme ceci : Modèle de type Mais vous voyez bien que ce modèle est complètement absurde par rapport à la réalité de la physique et que si vous ajoutez une nouvelle mesure dans les données, comme ceci : Et bien la marge d’erreur est même encore plus grande que si vous vous étiez contenté d’une simple droite. C’est le problème de la généralisation du modèle. Un bon modèle doit être capable de minimiser les erreurs sur les données d’entraînement, mais tout en les minimisant sur de nouvelles données aussi. Le travail d’un data scientiste consiste donc à analyser les données et sélectionner un modèle qui propose le meilleur compromis possible entre la précision vis à vis des données d’entraînement et la capacité de généralisation. La perfection est impossible à atteindre parce qu’il y a des fluctuations et du bruit dans les données. La droite est un exemple. Selon la distribution des données on peut avoir besoin d’un modèle différent, comme ici : Ici on a un modèle de type et il faut optimiser les paramètres a, b et c. Voilà pour les bases du machine learning. La particularité du deep learning, c’est qu’on ne va pas ajuster 2 ou 3 paramètres, mais des millions, voire des milliards de paramètres pour traiter des paquets de données en vrac. Mais le principe est identique. Le deep learning Les schémas que je présente dans cette section sont des captures d’une vidéo de la chaîne Machine Learnia sur le thème du Deep Learning sur Youtube. Je vous parlerai de cette chaîne dans la bibliographie. Le premier concept de neurone artificiel a été élaboré par deux mathématiciens, Warren McCulloch et Walter Pitts, en… 1943 ! Je vous avais prévenus que vos parents n’étaient pas encore nés. x) Rappelons le principe de fonctionnement d’un neurone, un vrai. En orange, vous avez les dendrites qui sont connectées aux terminaisons d’autres neurones. Elles sont excitées ou non selon que les neurones qui les précèdent le sont ou non. Si le niveau total d’excitation dépasse un certain seuil, le neurone est à son tour excité et transmet l’information à ses terminaisons (en vert) qui sont elles-mêmes connectées aux dendrites d’autres neurones. Et bien le neurone artificiel s’inspire du même principe : il fait la somme des signaux x qui peuvent être des données d’entrée ou le résultat d’autres neurones artificiels (on appelle cette étape agrégation), il vérifie que cette somme dépasse un certain seuil, ou pas et si c’est le cas, le résultat y vaut 1, sinon il vaut 0 (c’est l’étape d’activation). Notez que lors de l’agrégation, toutes les entrées n'ont pas la même influence. Celle-ci est définie par les paramètres w. On appelle cela les poids et c’est de ces poids que dépend la fonctionnalité du neurone. A l’époque nos 2 mathématiciens suggéraient déjà qu’on pouvait organiser les neurones artificiels en réseau. Mais il y a un hic ! Ils n’ont pas proposé d’algorithme permettant d’ajuster automatiquement les poids w, ô combien importants pour pouvoir définir la fonctionnalité qui ressortira du réseau de neurones, il fallait donc les définir à la mimine ! L'engouement pour l’IA est retombé comme un soufflet. Pfffft ! 💨 Il faut attendre 1957 avant que ne soit proposé le premier algorithme d’apprentissage automatique du neurone artificiel. L’idée est proposée par le psychologue Frank Rosenblatt et s’inspire toujours du principe de fonctionnement des vrais neurones. En gros, quand 2 neurones reliés entre eux sont excités en même temps, la connexion entre eux est renforcée. L’algorithme d’apprentissage s’appuie sur cette idée là. Dans la pratique, avant l’entraînement, on donne une valeur aléatoire à tous les poids w. Ensuite, on fait passer les entrées x dans le réseau de neurones qui calcule un résultat y. On compare ce résultat aux données d’entraînement y réelles. On ajuste les poids w de manière à ce qu’ils donnent un résultat plus proche des données réelles. Puis on recommence : on fait passer les entrées x dans le réseau de neurones qui calcule un résultat y. etc etc… Et ainsi de suite jusqu’à ce que la marge d’erreur ne bouge plus. Mais il y a encore un hic ! L’algorithme d’apprentissage proposé à l’époque ne pouvait fonctionner que sur une seule couche de neurones, et ne pouvait donc résoudre que des problèmes qui pouvaient être représentés par une droite. Alors ici, séparer 2 catégories avec une droite pas de problème. Mais là, par contre, on est comme des cons. Le soufflet retombe à nouveau. Pffft ! 💨 Il faut attendre 1986 pour que soit mis au point un algorithme d’apprentissage automatique multi-couche sur une idée proposée en 1974, la back-propagation. Je ne vais pas vous assommer avec des détails techniques, ce sont des math un peu bourrues. Retenez simplement qu’il s’agit d’un algorithme d’apprentissage qui parcourt le réseau de neurones à l’envers pour pouvoir ajuster les poids (d’où le “back”). Les étapes restent toujours les mêmes : Donner une valeur aléatoire à tous les poids. Faire passer les entrées x dans le réseau de neurones qui calcule un résultat y. Comparer ce résultat aux données d’entraînement y réelles. Ajuster les poids w de manière à ce qu’ils donnent un résultat plus proche des données réelles. Faire passer les entrées x dans le réseau de neurones qui calcule un résultat y. etc etc… Si on prend l’exemple d’un réseau de 3 neurones répartis sur 2 couches, on peut déjà résoudre des problèmes plus complexes. Bon, affichons notre petit réseau de neurones avec les opérations que fait chaque neurone. Le truc qu’il faut noter quand vous utilisez une IA, c’est qu’à ce moment-là, elle a fini son entraînement. Les poids w, ils ne bougent plus. Et donc, qu’est ce qu’il fait, là, le réseau de neurones, quand vous l’exécutez ? Il fait juste une grosse suite de multiplications et d’additions… Et c’est tout ! Vous pouvez voir ça comme un méga filtre Photoshop qui fait une opération différente à chaque pixel. J’ai d’ailleurs testé des IA qui ne faisaient pas mieux que des filtres Photoshop. ¬¬ C’est con, hein ? 😄 C’est fou ce qu’on peut faire avec de simples additions et multiplications. Comme vous pouvez le voir, le neurone artificiel ne fait que s’inspirer du principe de base des neurones de notre cerveau, il ne les simule pas. Pour cela il faudrait aller bien plus loin, simuler les réactions chimiques selon les types de neurotransmetteurs et bien d’autres choses que mes maigres connaissances en neurologie ne sauraient vous lister… Le bout de code du neurone artificiel est beaucoup trop simple pour prétendre simuler tout ça. Un réseau de neurones artificiels n’a donc pas grand chose de commun avec un cerveau bien réel. En fin de compte, dire que ce genre d’algorithme peut développer une conscience c’est un peu comme dire que le blender de votre cuisine peut en développer une aussi. Bon, alors du coup, si cet algo est aussi vieux et simple, pourquoi ce type d’IA n’explose que maintenant ? Et bien l’étonnante simplicité du deep learning est aussi son point faible. Outre le fait qu’elle présente, par principe, une limite à la perfection des résultats qu’elle peut produire, celle-ci ne peut fonctionner qu’avec une très grande quantité de données. Sans données pour l’entraîner, une IA créative ne peut générer qu’un bruit aléatoire. Pour pouvoir entraîner des IA de génération d’images, il a donc fallu attendre l’explosion des réseaux sociaux et des smartphones. Les données, on en avait pas assez avant. Second problème, plus un projet d’IA de ce type est ambitieux, plus il faut de neurones et de couches de neurones et plus il faut de données, et plus vous avez de neurones à entraîner et de données, plus l’entraînement est long, et donc, pour économiser du temps, il faut plus de puissance de calcul. La puissance de calcul, on en avait pas non plus assez avant pour avoir des temps d’entraînement raisonnables. Non, le deep learning, ce n’est pas du tout un algorithme éco responsable. x) Pour parler plus grassement, en fin de compte, un projet de Deep Learning, c’est un concours de bites : plus on veut faire un projet ambitieux, plus il faut de moyens (recruter des data scientistes pour récolter et traiter les données, louer des cartes graphiques sur le cloud ou disposer de son propre centre de calcul). Les limites de Midjourney, Dall-E & co Pour en terminer avec le fonctionnement des IA, voici une petite analyse plus poussée des limites des IA génératives actuelles. Pour commencer, voici des captures des galeries de Stable Diffusion et de Midjourney. J’ai aussi refait la même recherche que Spartan sur les démons pour Stable Diffusion. Y’a pas un truc qui vous fait tiquer tout de même ? Une IA c’est très fort pour recracher des choses qui ressemblent aux données d’entraînements, mais c’est beaucoup plus à la peine pour faire quelque chose de nouveau et dans ces galeries on ne vous affiche que les résultats les plus réussis, et dans les résultats les plus réussis, qu’est-ce qu’on trouve majoritairement ? Des portraits, des légions de portraits ! Les concepts de personnages ont tous à peu près le même posing et si on inclut les quelques décors on constate que tout est vu à hauteur d’yeux. Par contre, pour les keyframes du genre un personnage accroupi qui observe une fleur vu en plongée, un bonhomme qui surfe sur un skate volant vu en contre plongée ou 2 personnages qui font un câlin, on repassera. C’est pour ça que la tentative de dragon cyberpunk de Spartan s’est soldée par un bel échec critique : des images de dragons, on en trouve à la pelle, des images de dragons cyberpunk, vachement moins ! Alors, pourquoi cette limitation ? C’est simple, la nourriture des IA, les données, est aussi leur plus grand point faible. Le fait est que sur Internet vous trouverez plus de portraits vus à hauteur d’yeux que de keyframes de malades avec des cadrages improbables, et les personnages qui se tiennent debout dans des poses peu originales, c’est quand même plus facile à dessiner, donc il y en a aussi plus de que des poses complexes. Fatalement, les IA sont plus douées pour recracher ce type de contenu. C’est pas une surprise. Cependant, des photos et des dessins avec des personnages dans des positions variées, il y en a aussi sur Internet, alors pourquoi ces IA sont-elles paumées avec des demandes anatomiquement plus complexes ? C’est simple, elles s’entraînent sur la base de couples image/description et les descriptions des images ne sont absolument pas écrites par les data scientistes de l’équipe de développement, ils ne sont pas assez nombreux. Non, ils utilisent tout simplement des bots qui vont lire la description que l’auteur de chaque image a rédigé et les mots clé qui vont avec. Mettons, vous faites un beau keyframe avec une scène d’action ou une étude de modèle vivant. Lorsque vous publiez votre image sur le net, est-ce que vous vous amusez à rédiger une description complète du posing et du cadrage comme si vous vouliez qu’un aveugle puisse “visualiser” avec précision le contenu de votre image ? Non. Par conséquent, il y a un trou dans les données et l’IA se retrouve avec des images dont elle ne sait pas trop quoi faire et des possibilités qui ne lui sont pas accessibles. Ceci pose d’ailleurs un problème plus grave : les biais culturels et les stéréotypes. Sans traitement manuel, ce que les IA recrachent est à l’image du contenu qu’elles trouvent sur Internet. C’est d’ailleurs comme ça que les tentatives d’IA de conversation ont fini par tenir des propos racistes et que le portail francophone de Google a un jour affiché l’affiche du film Black Panther associée au titre La Planète des Singes en faisant passer ça pour une fiche d’Allo Ciné. Les activistes d’extrême droite savent très bien comment fonctionne le deep learning et comment entuber une IA de ce genre. C’est simple : il suffit de publier une association entre une image et un texte de façon à ce qu’elle devienne plus fréquente que l’association affiche/titre originale. Les développeurs de Craiyon font d’ailleurs une mise en garde à ce sujet dans leur FAQ. https://www.craiyon.com C’est écrit aussi sur le site de Stable Diffusion : https://stability.ai/blog/stable-diffusion-public-release En parlant de câlins, voici un test que j’ai fait avec Midjourney. Décryptage d’un petit exemple. Je lui ai demandé de me “dessiner” les pilotes de Formule 1 Max Verstappen et Lewis Hamilton qui se font un câlin. Voici le résultat après plusieurs itérations. Oui, c’est dégueulasse. Y’a des trucs malaisant. Désolée si vous étiez en train de manger. :’D Ici encore, le point faible, ce sont les données. Sur cette image, avec les copains, on soupçonne Midjourney d’avoir utilisé des morceaux d’un autre pilote pour recréer Max Verstappen : Charles Leclerc. Alors pourquoi ça fait ça ? Et bien, toujours pour la même raison. Midjourney et ses semblables utilisent des couples image/description pour s’entraîner et pour des pilotes de F1, nul doute qu’elles vont piocher les descriptions dans les articles de presse associés aux photos des pilotes ou les hashtags d'Instagram. Sauf que, ces IA, elles sont un peu con con quand même. Charles Leclerc et Max Verstappen sont deux pilotes qui se connaissent depuis tout petits à batailler en piste depuis le kart jusqu’à la F1, il est donc impossible de parler de l’un sans parler de l’autre. Par conséquent, les IA ont trouvé des photos de Charles Leclerc associées au nom de Max Verstappen. Et ne parlons même pas des tas de pécores sur Instagram qui ajoutent des tonnes de hashtag à la pertinence discutable sur leurs publications. ¬¬ Sans oublier les photos où les 2 pilotes sont présents. Résultat, les IA pondent des images de Max Verstappen en prenant des bouts de Charles Leclerc. Et patatra ! Ça donne ce genre de truc étrange… Avec une bouche à l’envers qui bave. 😂 Spartan pense que tous ces défauts seront gommés avec le temps. Voici ce qu’il faudrait faire pour y parvenir : Le fait est, que sur internet, la majorité des images que l’on trouve n’est pas associée à une description exacte de ce qu’elle affiche, et c’est la principale limite qui empêche d’aller plus loin. Pour contourner cette limite, il faudrait renoncer au crawling automatique du contenu du web et recruter des armées entières de gens qui rédigent une description exacte de chacune des milliards d’images utilisées pour entraîner les IA. … On parle de boîtes qui ne sont même pas fichues de recruter assez de monde pour cliquer sur un bouton “Supprimer” à la chaîne pour modérer les contenus haineux et qui sont même en train de licencier du monde en ce moment parce que leurs revenus sont en baisse (Coucou Meta ! ). ¬¬ Le nerf de la guerre, ce sont les données, leur quantité ET leur qualité. Faire avaler des pétaoctets de données à une IA ne sert à rien si on ne les nettoie pas et ne les traite pas avant. Et si elles sont trop chaotiques, il faut se taper le boulot à la main. Stratégie pour hacker les IA Ces IA donnent du pouvoir au camp des clients, mais en s'intéressant au fonctionnement du deep learning et aux cas de fiascos connus on peut se rendre compte que nous aussi, les artistes, avons un certain pouvoir. On peut pointer du doigt les activistes d’extrême droite pour leurs valeurs discutables mais on peut aussi les remercier de nous avoir montré la voie pour mettre du poil à gratter à ces entreprises qui utilisent nos images sans nous demander notre autorisation. Il suffit pour cela de s’attaquer au principal point faible des IA : en sabotant les données ! Voici plusieurs pistes pour ce faire. La première : comme expliqué plus tôt, il y a des trous dans les données qui font que les IA ne savent pas tout faire. Et bien on peut agrandir ces trous volontairement, en arrêtant de poster des portraits et des poses basiques, en nous efforçant de dessiner davantage de poses et de cadrages complexes (c’est pas un mal, ça nous fera progresser 😛 ) et lorsque nous postons nos images, ne surtout pas rédiger de description précise de leur contenu et réduire le nombre de hashtags aux seuls 2 ou 3 les plus pertinents. Ainsi, les IA n’ont aucune chance d’apprendre correctement l’anatomie et la perspective. La seconde : injecter de la merde. Les gens qui mettent des tonnes de hashtags à la pertinence discutable sur Instagram, finalement ils sont pas si cons. Petit exemple : Imaginons que vous dessiniez un Sangoku, seul, en train d’exécuter un Kaméhaméha. Lorsque vous postez l’image sur le net, premièrement, ne décrivez toujours pas la pose et le cadrage exact. Par contre, vous pouvez vous amuser à raconter ce qu’il se passe hors champ, des choses qu’on ne voit pas dans l’image, sans préciser que c’est hors champ (le visiteur humain le comprendra tout seul). Par exemple, que Sangoku va jeter son Kaméhaméha sur Végéta, ou Freezer, ou Cell… Et dans les hashtag ajouter des personnages qui n’apparaissent pas dans l’image, genre #vegeta #cell #freeza #gohan… Ou d’autres hashtags avec un lien éloigné. Comme ça, les IA seront dans la confusion. On peut même pousser le vice en associant ces hashtags à des contenus NSFW. 8D L’idée c’est de rendre le traitement des données impossible de façon automatisée et trop coûteux à la main. Si on s’y met massivement, il y a moyen de geler la progression de ces IA. A titre individuel, il n’y a pas grand chose à faire, juste être un peu attentif à la manière dont on décrit nos images quand on les poste sur Internet, voire être carrément flemmard et en écrire le moins possible. x) Plusieurs IA basées sur le contenu du web ont été sabotées de cette manière par le passé, parfois jusqu’au retrait du marché, donc il n’y a pas de raison qu’on ne puisse pas recommencer. La chose importante à garder en tête c’est que ce qui coûte le plus cher dans le développement d’une IA c’est la récolte, le nettoyage et le traitement des données et on peut rendre ça déraisonnablement cher. Alors en effet, je suis très sarcastique à propos des IA similaires à Midjourney. D’une part je suis assez fatiguée des discours binaires type “On va tous mourir” ou “C’est fantastique ! C’est la révolution !” qui survendent ces IA. D’autres part, j’en ai testées un certain nombre et je les ai trouvées tout à fait inexploitables pour mes projets et mes workflows. Je ne dis pas que ça ne servira à personne, mais ça ne colle pas à mes besoins spécifiques, voilà tout. Pour autant, je ne crache pas sur la technologie du Deep Learning en elle-même. Au contraire, je la trouve super intéressante, mais je vois sa place davantage pour des tâches exécutives spécialisées que pour des tâches créatives généralistes. Bon, maintenant qu’on a vu comment ça fonctionne, abordons la partie fun de l’article. Faire une IA soi-même ! \o/6 points
-
4 points
-
Bon voici le process pour Vilador, 1. sketch rapide du design avec déjà qlq idées en tête. 2.sketch grandeur nature avec les valeurs pour voir vite fait ce que ca donne. 3. Petit line convenable avec 2 3 idées qui sont venues entre temps pour avoir une idée claire du personnage. 4. shading + clean un peu avec un peu de valeur pour avoir une référence correcte du perso 5.(que j'ai pas encore fait) mettre les couleurs. PS: Bonne chance à ceux qui participent à ce challenge 👍4 points
-
Bonjour Péguy ! Pour commencer, Péguy, c’est quoi ? C’est le nom que j’ai donné à une suite de petits outils que j’ai développés pour accélérer mes workflows. Je compte distribuer certains d’entre eux au public lorsqu’ils auront une interface user friendly. D’autres sont vraiment trop spécialisés pour que quelqu’un d’autre que moi puisse leur trouver une utilité. Il s’agissait à l’origine d’outils de génération procédurale, d’où le nom Péguy. (Procedural Generator => PG => Péguy) Puis ils se sont généralisés à toutes sortes de tâches répétitives. Depuis quelques mois, quand j’ai découvert que le deep learning était accessible au particulier, je me suis dit qu’il pourrait être intéressant d’ajouter cette technologie à mes outils. J’ai donc avalé des formations et des tutos et acheté des bouquins sur le sujet. Et aujourd’hui, je peux vous présenter un premier prototype ! 😄 Alors je ne vous cache pas que si vous n’avez pas de bases en programmation et en math Bac+2, ça va être chaud de faire ça vous-même. Mais si c’est le cas, alors pas de soucis, des tutos et un bon ordi personnel feront le taff. 🙂 Au pire, pour la phase d’entraînement, la location de ressources de calcul sur le cloud est accessible aux particuliers. Bon ! Ma petite IA, qu’est-ce qu’elle fait ? J’ai décidé de commencer par quelque chose de simple, mais qui est néanmoins l’étape la plus chronophage quand je la fais à la main (même numériquement) sur mes projets de BD : l’encrage. Voici ce qui se passe : j’envoie mon crayonné à mon IA, puis celle-ci me retourne une version encrée au bout d’une ou deux minutes. Je ne m’attarde pas sur le code, d’une part ça vous embrouillerait, d’autre part, je n’ai rien fait d’extraordinaire. J’ai juste repris le code d’un tuto dont je mettrai le lien à la fin, j’ai du retoucher un réglage ou 2 et je lui ai juste fait avaler mes propres données pour l’entraînement au lieu de celles proposées dans le tuto. En fait, il faut retenir que le code source d’une IA est hyper standard et générique et que ce qui fait la vraie spécificité d’une IA, ce sont les données d’entraînement qu’on lui fait avaler. En somme, pour ce projet, la création et le traitement des données, c’est 90/95 % du boulot que j’ai fourni. Je vous explique comment j’ai fait. Le nerf de la guerre : les données d’entraînement Alors ici, pas de problème de droit d’auteur. J’ai entraîné mon IA sur la base de mes propres dessins uniquement. Affaire résolue donc. Comme je l’ai mentionné plus tôt, la qualité des données est primordiale et si j’avais dû construire mes données d’entraînement sur la base de données du web, je m’en serais pas sortie. Il aurait fallu trouver des couples crayonnés/encrages de haute résolution (déjà, ça c’est pas gagné) et qu’à chaque fois, le fichier de crayonné et le fichier d’encrage aient la même résolution et ne soient pas décalés. Bref ! Mission impossible. x) On vous montre beaucoup d’IA basées sur le données du web, mais en vérité, pour faire une IA spécialisée de qualité avec des données de qualité, le mieux, ça reste de fabriquer ses propres données soi-même dans des conditions contrôlées. Ha bah oui, tout le monde peut pas le faire. Faut encore savoir dessiner. Comme quoi, c’est toujours utile d’apprendre la compétence. x) Vous vous dites sûrement “Ha mais tout de même. Des données il en faut beaucoup. Faire assez de dessins tout seul pour qu’une IA fonctionne, ça doit être chaud quand même.” Alors en fait, pas tant que ça. La vérité, c’est que plus une IA est complexe, plus elle aura besoin de données et inversement, plus elle est simple, moins elle en aura besoin. Par conséquent, les Midjourney et compagnie, sont des projets tellement ambitieux qu’ils nécessitent effectivement des quantités astronomiques de données, mais un petit projet très spécialisé comme le mien, beaucoup moins. Mais alors vraiment beaucoup beaucoup moins. L’autre point c’est d’analyser ce qu’on veut vraiment que l’IA sache faire. Ici, on veut qu’elle sache encrer un dessin. Grosso-modo, détecter le coup de crayon final et le repasser à l’encre. Est-ce qu’on a nécessairement besoin d’avoir de beaux dessins figuratifs avec des poses complexes et variées, craqués de détails dans tous les sens qui nous prennent des heures de travail ? Non. Que vos données d’entraînement soient des illu de malade ou des crobards faits à l’arrache, l’IA, elle s’en contre-branle. Elle veut juste savoir repasser un trait de crayon. Voilà donc ce que j’ai fait : j’ai pris mon carnet et j’ai crayonné dedans des tas de petits crobards abstraits ou figuratifs, des motifs et des effets de textures, je les ai scannés et je les ai encrés dans Clip Studio Paint. J’en ai fait 120 comme ça. Pas plus. Bon, alors 120 images, c’est vrai, c’est un peu léger pour entraîner une IA. Mais c’est pas grave, pas besoin d’user davantage de jus de coude. On peut augmenter la quantité de données artificiellement. Si si, c’est une vraie technique. x) Le principe est simple : il suffit de créer de nouvelles images en puisant dans les données réelles, en combinant plusieurs images, en les décalant, en les tournant et en les redimensionnant. C’est ce que j’ai fait. J’ai créé un programme qui pioche plusieurs dessins originaux au hasard et les combine. J’ai ainsi multiplié la quantité de mes données par 10 ! 1200 dessins, là ça devient intéressant ! Maintenant il n’y a plus qu’à entraîner l’IA. Les algorithmes d’entraînement des IA sont optimisés pour tourner sur des cartes graphiques Nvidia. Malheureusement, comme j’ai un Mac et donc une carte AMD, j’ai dû me contenter du processeur. Mais il est costaud, donc il s’en est sorti. La session d’entraînement a pris quelques jours. … Quelques jours de bruit de ventilo en continu. Faut être patient. 8D Bon, maintenant voyons ce que ça donne. Le résultat actuel Alors en vérité, j’ai fait 2 sessions d’entraînement de mon IA et j’ai conservé les 2 versions. La première avec une première version de mes données, la seconde avec une version améliorée de mes données. Pour cette présentation, je suis partie d’un crayonné que j’ai réalisé récemment dans le cadre de mes recherches pour le nouveau challenge. Le voici. En faisant passer ce crayonné dans la première version de mon IA, voici ce que j’ai obtenu. Bon, pas folichon. Les traits de construction sont toujours là. A vrai dire, ça ressemble encore à un crayonné. Quel est le problème ? Les données d’entraînement, toujours. Si vous retournez voir les données d’entraînement que j’ai montrées plus haut, vous pourrez noter 2 problèmes. Le premier : les crayonnés n’ont aucun trait de construction. Comme c’était des dessins extrêmement simples, je les ai quasiment tous tracés d’un coup sans quasiment aucun trait de construction. Le second : lors de l’encrage, j’ai été trop fidèle au crayonné. Je l’ai repassé scrupuleusement. La conséquence, c’est que l’IA aura tendance à encrer le moindre coup de crayon qu’elle trouve, dont les traits de construction et la moindre poussière qui passe par là. J’ai donc dû retravailler mes données pour entraîner une seconde version de mon IA. Pour cela j’ai ouvert mes crayonnés dans Clip Studio Paint et j’ai ajouté des tas de petits traits de construction ou d’hésitation avec un brush crayon. J’ai aussi ajouté un petit flou gaussien à mes coups de crayons numériques parce que le grain du brush est plus net que celui du crayon tradi. Je me méfie parce qu’une IA ça peut être extrêmement con de précision donc je veux m’assurer qu’elle ne soit pas capable de distinguer un coup de crayon tradi d’un coup de crayon numérique. Ensuite, j’ai refait l’encrage, mais cette fois, je l’ai fait à la fois plus propre et moins fidèle au crayonné. Si je trouvais des tremblotements sur une courbe, je ne les suivais pas, je faisais une courbe propre à la place. Une fois mes dessins retouchés, je les repasse dans la moulinette à multiplication et c’est reparti pour plusieurs jours d’entraînement ! Et voici ce que ça donne avec la seconde version de mon IA. Sans être parfait, c’est déjà mieux. Il reste beaucoup moins de traits de construction. Notez que je n’ai pas augmenté la quantité de données d’entraînement, je les ai seulement modifiées pour qu’elles soient plus proches d’un cas pratique. J’insiste beaucoup sur la qualité des données, mais comme vous pouvez le voir, ça a un impact évident. Augmenter la quantité de données peut être intéressant, mais à la condition de s’assurer que ces nouvelles données apportent une diversité réelle. Je pense que si j’augmente mes données davantage en demandant à mon programme d’augmentation artificielle d’en créer plus ça n’améliorera pas ou très peu le résultat. Paradoxalement, dans le cas présent, avoir des données de qualité revient à avoir des crayonnés plus sales. x) On revient toujours au problème de généralisation du modèle. Il faut qu’il soit capable de se débrouiller sur de nouvelles données, pas juste qu’il soit très fort à reproduire les données d’entraînement. Initialement, je prévoyais d’attendre d’avoir fait une troisième session d’entraînement avant de vous présenter tout ça, mais l’actu m’a rattrapée. x) Je vais donc vous expliquer ce que je prévois de faire pour tenter d’améliorer ce projet. Pistes d’améliorations Pour l’avenir, je prévois 2 étapes d’amélioration. La première consiste à enrichir les données avec de vrais dessins et pour ça le inktober est tombé à pic ! J’ai bien pris soin de scanner les crayonnés avant de faire mes encrages tradi. Il me reste à finir les encrages numériques. J’ajouterai probablement les crayonnés de mes recherches pour le challenge aussi. La seconde : modifier mon réseau de neurones pour pouvoir traiter des images de n’importe quel format. Ça ne se voit pas dans l’exemple que j’ai montré jusqu’à présent, mais en fait, mon IA ne sait traiter que des carrés de 1024x1024 pixels. Il y a un pré-traitement qui découpe l’image en carrés de cette taille et s’il y a des carrés incomplets, des pixels blancs sont ajoutés. Ensuite, l’IA traite les carrés un par un indépendamment les uns des autres. Et pour finir il y a un post-traitement qui réassemble les carrés générés par l’IA. Sur cet exemple, c’est visible grâce aux à-plats noirs dont l’interprétation est encore loin d’être au point. Il y a des réseaux de neurones capables de prendre en compte des pixels distants lors du traitement d’un pixel de l’image, ce qui serait bien pour traiter les pleins et les déliés sur des éléments qui occupent plusieurs carrés. Pour cela savoir traiter des images de tailles variées sans les découper serait utile. Il faut que je potasse mes bouquins pour améliorer ce point. J’ai aussi d’autres idées d’IA très spécialisées comme ça, que je voudrais essayer, ainsi que des idées pour “fabriquer” les données d’entraînement qui vont avec mais je vais commencer par améliorer celle-là avant de m’éparpiller. Voilà voilà ! On a fait le tour de cette expérience, maintenant, il est temps de conclure ! 😄4 points
-
Bonjour à tous, j'ouvre un WIP pour le Challenge 15. Première fois que ça m'arrive mais je ne sais absolument pas quel sujet choisir, alors j'ai décidé de commencer par quelques éléments de l'Univers. Donc je commence avec l'héraldique de l'Université de Grondark. Kranos: Je commence le concept de Kranos. Ce n'est pas super propre, mais là, j'essaye de faire le maximum d'itérations le plus rapidement possible. Ensuite, je vais garder les meilleures idées. Voila le design final : Maintenant, on attaque la composition, je suis parti sur l'idée que mon perso travail sur le confectionnement de sa magie de sa chambre d'étudiant. On teste un workflow 3D : D'habitude en ce qui concerne la 3D, je me contente de faire une pose avec Clip studio paint ou d'ajouter quelque volume 3D basique. Mais en parcourant les Wip du Forum, ça m'a donné envie d'essayer d'aller plus loin. Donc j'ai testé Blender. C'est très fun mais j'ai bien galéré, surtout pour les habits, d'ailleurs on voit que ce n'est pas très propre. Mais ce n'est pas bien grave parce que je vais peindre au dessus. Au final je pense que la 3D va représenter 60 à 70 % du travail. Donc pour l'instant ça donne ça : Une petite création d'alphabet magique pour les sorts avec caligraphr : Ensuite j'ai utilisé ses runes pour designer les cercles magiques : Ceux de Leonardia sont plus classiques, ils ressemblent plus à des cercles d’alchimie. Ceux de Grondark, sont plus modernes puisque l'école fut fondée plus tard aussi ils sont plus géométriques pour donner un aspect plus scientifique: Kranos doit mixer les deux formes de magie : Mise à jour de mon illustration : On passe au rendering !3 points
-
Hello ! Premier challenge pour moi ! L'univers et la façon dont il est amené m'inspire vachement, j'ai décidé de franchir le pas et de me lancer 😄 Je commence avec le personnage de Lirana. En faisant des recherches pour m'inspirer, je suis tombé sur une illustration sur Pinterest (ci dessous) qui m'a bien plu : Une sorcière avec un PC portable. Je trouve le concept d'une étudiante d'aujourd'hui dans une université de magie très sympa. Et j'ai bien relu le descriptif, je ne pense pas être hors sujet. Voilà mes premiers coups de crayons ou j'essaye de chercher un peu la base de mon painting : Pour les éléments du monde moderne j'ai mis : un burger et un sac de pharmacie (médocs contre les crises magique), un casque audio et un gobelet de café. A des moments je me dis que ce n'est pas assez pour qu'on comprenne le concept, à d'autres je me dis que le burger est de trop 😅 N'hésitez pas à me faire part de vos remarques 😁3 points
-
3 points
-
Initialement j'ai posté ce sujet dans les WIP parce qu'après tout, mon projet est bien à l'état de WIP, mais si ça peut permettre d'informer les gens et d'apaiser leur anxiété, je ne vois aucun problème à ce que le sujet soit déplacé dans une section plus pertinente. 😄 Le sujet mérite effectivement discussion. Je pense m'attarder sur la question en prenant en compte l'aspect technique. Je ne peux pas le faire de suite parce qu'il faut que je sorte, mais d'ici la fin de la semaine, c'est possible. De mon point de vue, le vrai noeud du problème tient dans la constitution d'une base de données d'entraînement avec des contenus extraits à l'insu de leurs auteurs. Dans le cas d'une base de données d'entraînement construite en toute légalité et toute transparence par des auteurs recrutés à cet effet ou avec des données qui appartiennent à l'organisme qui développe l'IA, j'estime que le statut d'une oeuvre créée à l'aide d'une IA ne devrait pas être différent de celui d'une oeuvre créée avec Photoshop, CSP, Procreate, Blender... Je détaillerai mon point de vue. En vérité j'ai vraiment un problème avec le terme "IA" pour les algorithmes de machine learning. x) En tout cas, si ce contenu vous a plu et paru utile, j'en suis heureuse. Merci à vous d'avoir eu la patience de lire. 😄3 points
-
Wow, je n'ai pas pris le temps de tout lire encore mais sacré sujet que tu nous as fait là, merci beaucoup @Suisei ! C'est inestimable et vraiment bien expliqué. Comme suggéré, si tu es d'accord, je serais ravi de le mettre en avant sur le site. Autant de travail mérite de la visibilité. Et @Neuf150 très bonne idée pour une section dédiée aux IA. On va voir si on fait ça tout de suite ou si on attend un peu. Merci pour la suggestion !3 points
-
Petit récapitulatif avant de commencer des compo, et en bonus, un peu de storytelling ! La naissance de Sviktan Abandonnée à elle-même depuis ses dix ans, après le meurtre de ses parents, riches et redoutés de tous, grâce à leurs pouvoirs et leur emprise sur la société, Sviktan se fît passer pour morte, errant les rues sales d’une grande métropole. Elle réussit, malgré son jeune âge, à se faire respecter. Une aura maléfique émanait de son petit gabarit, car la vengeance et la colère avaient déjà pris le dessus. Sachant que la magie noire permet un pouvoir « dit » beaucoup plus puissant que la magie blanche, elle se dirigea vers celle-ci, influencée par un homme beaucoup plus âgé qu’elle, qui prendra place à ses yeux une image paternelle. Homme qui, était un grand mage de Ruysdran. Elle se fera dévorer par l’obscurité et la folie. Car, derrière son visage glaçant et méprisant, se trouve un être perdu dans le chaos.3 points
-
2 points
-
Coucou, bon je me lance ça fait un moment que je ne dessine plus trop mais un challenge c'est trop tentant pour faire ça larve 😅 alors hop au boulot je me remets en selle ! J'ai commencé par Vilador, je voudrais la représenter avec l'ensemble des éléments qu'elle contrôle donc glace, feu et vent. Pour cela je me suis inspirée d'un personnage que j'aime bien dans my hero academia qui contrôle dans une main la glace et l'autre le feu. Le vent serait en peu partout autour d'elle (surtout au niveau des jambes)... Bon pour l'instant ça fait plein de traits fouillis mais ça rendra mieux avec la couleur 😅 Je mets aussi mes références, n'hésitez pas à me donner des conseils/avis si vous avez ! Bon challenge à tous ! 😉2 points
-
2 points
-
Salut à tous! C'est partit pour mon premier challenge et je me demandais si chacun devais bosser de son côté sans rien dévoiler ou s'il était possible d'avoir quelques commentaires. Et bien je suis content de découvrir qu'il y a moyen de partager ses avancées. Et bien voici pour mon concept de l'intérieur de l'université de Grondark : "la vue de sa forme d’anti-sphère est difficile à appréhender pour l’esprit et je ne parle même pas de ce qu’on ressent lorsqu’on y entre. La gravité peut s’inverser à tout moment et la perception de l’espace change sans cesse. Une salle paraissant toute petite au premier coup d'œil peut grandir démesurément à mesure qu’on avance vers elle et ce n’est là qu’un exemple parmi tant d’autres. C’est étonnant de voir comme les Grondarkiens semblent pourtant à l’aise dans cette construction déroutante…" Je me prends moi-même la tête avec ces formes dans tous les sens! Et au premier plan, Tetram en grande discussion avec un collègue : "Tertram inspire le respect. Sa mâchoire carrée sublimée par une fine barbe souligne bien son crâne rasé sur les côtés et renforce l’aspect rectangulaire presque inhumain de sa tête". Vous reconnaitrez probablement la posture des deux compères ; Aristote et Platon. Je suis preneur de vos commentaires ! Et je vais tenter de mettre tout ça en valeurs pour y voir plus claire! Benji2 points
-
2 points
-
Merci ^^, oui en effet certains croquis sont pas forcément adéquat au brief, on se fait plaisir aha ^^ je pense partir sur la couronne avec le sort où les papiers volent partout ^^ et j'ai fais quelques portraits histoire de découvrir, mais je pense partir avec les cheveux au vent où qui flottent comme dans l'eau ^^2 points
-
@sweetkala Yes merci, je vais tester ça sur l'environnement vu que c'est dans mes capacités de modé 🙂 @Anatem Merci, moi aussi haha 😉 @Le Comte Dentier Merci, je vais pas mentir je préfère la préprod que finir des images. En vrai je vais encore explorer pas mal pour la statue, les idées sorties me semblent encore trop banales pour l'instant (après les derniers designs qui m'ont vraiment marqué ça devait être Ludwig the accursed/les Sanctechair et la DA de Blasphemous, très hispanocentrée) @z.b35 Merci, contente que ça te motive 😛 Pour l'instant je préfère C perso pour la pose qui fait vitef référence à un Caravage, mais je vais explorer encore plus parce que ca reste un asset principal et que c'est pas encore ce que je veux CHAUDVENT Ok c'est ici que je vais avoir besoin du plus de retours vu que je suis indécise et je déteste les rendus 3D de base (du coup je ne serai jamais objective dessus) : TCHAWAMPA Suite recherche statues meh :2 points
-
2 points
-
Hello l'équipe DPS et la communauté ! 🌞 Voici mon Digital Painting d'imagination réalisé en 2h30 environ. Ce n'est pas le premier Digital Painting que je réalise mais j'ai plutôt l'habitude de faire des études. Je rêve de pouvoir dessiner d'imagination (ça doit être incroyable de n'avoir que cette limite-là 😍) et d'avoir un style réaliste. Pour me challenger, j'ai souhaité réaliser un environnement un peu fantastique composé de roches en forme de piques avec certaines pointes en pierres précieuses (améthyste je dirai vu la couleur haha 😄). J'ai utilisé la technique du lasso pour les reliefs mais j'ai eu des difficultés pour représenter la roche, sa texture, son relief... 🤔 Ensuite j'ai placé un personnage mage regardant l'horizon, sa taille permet de mesurer la grandeur de l'environnement (notamment des roches). Pour apporter de la profondeur, j'ai pensé à peindre une rivière. Enfin, j'ai placé des oiseaux pour renforcer l'aspect de plénitude au sommet des montagnes et amener du dynamisme au visuel. N'hésitez pas à me donner vos avis, conseils et critiques svp haha je suis preneur ! 😊 Ils me seront précieux pour progresser en DP. Merci de m'avoir lu et à bientôt pour la suite qui s'annonce PASSIONNANTE !!! 🤗🥰2 points
-
Pour ceux qui veulent tester et s'amuser avec, un lien vers un des packs de brushes de Greg Rutkowski 😉 https://grzegorzrutkowski.gumroad.com/l/pACug?layout=profile2 points
-
Merci Suisei de ces informations très complètes et peut-être difficiles à appréhender pour certains. Mais sa lecture pourra certainement calmer l’angoisse de la plupart des pessimistes. Comme je le faisais remarquer dans un autre post, qui connaît encore le dessinateur d’exécution en publicité ? Et pourtant il y a encore des gens qui font de la mise en page mais avec d’autres outils. En tout cas, je retiens la technique pour berner IA. Le seul sujet, qui pose réellement question, est celui du droit d’auteur… Bon brush. NB : suite à la demande de Vera, il pourrait même créer un forum spécial IA car il y a déja beaucoup de posts…2 points
-
Alors là ! Merci ! Bravo ! Total respect !😍 Tu expliques très bien, admiration pour tout ton travail d'exploration, de tests, de partage, de démystification Juste une suggestion pour rassurer les membres de la communauté qui sont très très inquiets : peux-tu demander aux modérateurs de déplacer ton sujet dans la rubrique "vos ressources" pour le rendre plus visible ? C'est un sujet de fonds qui répond à un énorme questionnement et dans "vos exercices..." il est vite recouvert et on a du mal à le retrouver 😉2 points
-
Merciii beaucoup pour ton message et tes encouragements @Chaz😊 Oui j'ai imaginé une composition un peu complexe, le Programme Indispensable va nous aider pour consolider nos bases en perspective etc ! C'est à nous de jouer pour continuer de progresser 😁 J'espère que le "avant-après" sera à la hauteur de tes compliments 🙂 A bientôt l'artiste (comme dirai notre cher @Spartan de DPSchool haha 🌞)2 points
-
Bon j'ai pas resister, j'ai commencer le painting j'ai pas resister.. je suis totalement impatient (tape sur la main) Ca donne un avant gout de ce que ca pourrait rendre, et ca commence à prendre une direction qui me plait. Maintenant il y a surement pas mal de choses qui vont bouger, notament la shape du rocher je la trouve pas tres impactantes, et pas très interessante, je vais peut etre aussi rajouter une entrée au stade tout au fond de l'image histoire d'avoir un ptit trou de lumière pour faire respirer un peu la scene, je sais pas si je garde cette ambience nuit , mais pour l'instant ca me plait assez( j'aimais bien l'idée que le dernier match de la saison ce passe une nuit de plaine lune, " pouvoir décuplé" plus grand "energie magique dans l'air") si jamais vous avez des idées, ou des choses à dire je suis completement preneur ^^ ! Bonne soirée ! 🙂2 points
-
2 points
-
Oh yeah @Maschu a posté son DP de référence 🥰 je suis contente de le voir ! Hé ben, le moins qu'on puisse dire, c'est que t'as voulu te mettre en danger avec une compo aussi complexe ! J'aime déjà beaucoup la texture que t'as donné à ta montagne aux pointes d'améthystes, le design agressif marche très bien 🙂 Et tu as eu de très bons réflexes pour suggérer la taille du mage, la profondeur... T'as de supers bases ! L'avant-après risque de nous mettre une claque. En tout cas, je me réjouis d'y être ! A bientôt sur le forum (et maintenant sur Discord 🙂 ) !2 points
-
2 points
-
1 point
-
RECHERCHES PANDERIN : Là aussi c'est de l'exploration, bon après je m'interroge sérieusement sur les limites de la sémantique quant à "toge", j'imagine que cela désigne juste un dérivatif de l'habit académique (vêtement ample ouvert tout ça) et pas l'habit romain EDIT CHAUDVENT Première explo, tours externes A finir mais ça bloque l'idée pour les portails Première explo blockout cadrage coupoles etc, je me dirigerais sur une vue plongeante avec hippogryffe en premier plan et une tour pour amener le spectateur dans la composition N'hésitez pas à me faire part de vos préférences, compréhension de la sémantique, etc etc,1 point
-
1 point
-
Hello hello ! Je m'appelle Clara et je m'intéresse au dessin depuis très longtemps mais n'ai jamais eu l'occasion de prendre des cours, et j'ai même parfois arrêté de dessiner pendant plusieurs années. Mais ma motivation est à nouveau là depuis quelques mois, plus forte que jamais. Cela fait plusieurs années que je possède ma tablette graphique et ai appris à l'utiliser, mais c'est seulement cette année que je commence à chercher à la maîtriser plus en profondeur. À côté de cela j'ai de très nombreuses passions : l'histoire de l'art, la lecture, le sport... et surtout l'écriture. Je passe une grande partie de mon temps libre à écrire des romans. Mais avec toutes ces activités, sans oublier mes études en restauration des monuments historiques (qui m'ont inculquées le dessin d'architecture), je dessine finalement assez peu Je reste donc encore largement au niveau d'amatrice, mais je suis bien décidée à changer les choses et finalement prendre le temps de dessiner pour m'améliorer. Il y a plusieurs choses que j'aimerais faire, déjà surmonter les problèmes que je peux avoir en dessin (représenter certains éléments, la perspective, etc.), puis être capable de produire des illustrations pour mes histoire. Je suis également très attirée par le concept art que je vais essayer d'apprendre, surtout pour représenter des environnements. Cela fait très longtemps que je suis les vidéos de @Spartan de DPSchool et même que je suis inscrite sur le site et regarde le magazine pour en prendre plein les yeux. Mais c'est seulement maintenant que j'ose venir parler sur le forum et intéragir avec vous. C'est une expérience qui me stresse un peu, mais que j'ai aussi hâte de découvrir ! J'ai une vitesse de dessin très lente, et je ne possède pas autant de temps que je le souhaiterais pour dessiner alors je produis assez peu, mais j'espère que cela évoluera et que je pourrai vous partager mes illustrations lorsque j'arriverai à en terminer ! Merci d'avoir lu ce pavé, et hâte de pouvoir discuter avec vous 🙂1 point
-
Mais...Mais tu as fait tout un travail de thèse de fin d'études, ma parole ! Sérieusement, j'ai eu l'impression d'assister à une défense de thèse de master (en version écrite...) de l'époque où j'étais à l'université ! Un grand bravo et merci à toi pour ce travail de longue haleine et ce long sujet, surtout que tu es parvenu à rendre la chose assez compréhensible et intéressante pour les personnes qui comme moi ont mis de côté les sciences à la fin du lycée ! 👏 🙂 Alors, même si je suis le public principal à qui s'adresse ton message, vu que je panique autant qu'un chat à la vue d'un aspirateur, la tension n'est pas totalement retombée. En effet, ce n'est pas la technologie qui m'inquiète mais l'emploie que l'on pourrait en faire. C'est un peu comme les terminators : si on craint le terminator de Skynet, celui terminator de John Connors on l'aime bien... Donc à voir ce qui se passe d'ici quelques années, vu que d'ici là on aura commencé à voir pas mal de procès pour atteinte aux droits d'auteurs. Je m'inquiète justement que certaines boîtes le fassent s'il y a un gros gain au bout de la ligne, je me dis que là c'est différent d'avoir des modos. Cependant, ce que tu dis sur piéger les IAs sur le long terme en trafiquant nos hashtags voir en postant des images avec de mauvais hashtags est super intéressant et pratique. Je n'ai pas vu cette idée être partagée ailleurs : tu as songé à contacter certains et certaines des artistes qui sont actuellement très vocaux sur le sujet, histoire qu'ils fassent passer le message (Karla Ortiz, Steven Zapata ?...). Je me demande même si ce ne serait pas possible d’entraîner des IAs pour qu'elles repostent au hasard nos images avec des mauvais hashtags afin saboter les IAs type midjourney et compagnie. ^^" J'en profite pour poser une question. Tout le début de ton sujet m'a en fait un peu inquiété, quand tu as expliqué que l'on peut coder des IAs dans ses charentaises car en fait c'est tout simple. Ma première pensée a été de me dire que si elles sont toutes simples, alors elles ne peuvent que s'améliorer et se complexifier avec le temps. Vu que tu es calé sur ce sujet, à ton avis combien de temps avant la prochaine évolution des IAs ? Enfin, et histoire que je parle d'autre chose que des trucs qui me mettent en PLS, ta petite IA d'encrage est super intéressante et bien trouvée (brevette ça avant qu'une grosse boîte le fasse avant 😂) ! Là je vois clairement une IA qui pourrait servir en tant qu'outil afin de nous aider, un peu comme l'outil de coloriage de Krita.1 point
-
Merci ! 🙂 Ouais je suis totalement d'accord , j'en avais mis quelques une, mais plus en mode petite chandelles. Mais t'as raison pour un grand spectacle plus de lumière dans les gradins carrément, merci à toi ! 😄1 point
-
1 point
-
ooohh très beau concept de skivtan j'adore sa robe ^^ je rejoinds @AnonGMI les pics ne se retrouve pas autre part sur ton concept du coup on bugg un peu par contre le crane à la ceinture est sur le baton donnent de la cohérence gg 🙂1 point
-
oooohh j'adore tes idées, elle est bien effrayante ^^ j'adore je pense aussi que la compo 2 est la meilleure ^^1 point
-
1 point
-
Pour la robe point de vue formes et dispositions, ça m'a l'air pas mal, je pense que ce qui rend étrange c'est la répétition des patterns qui semble un peu trop de la même taille et pas raccord avec le reste du design Le col avec des piques je suis moins fan, je pense que tu peux aller chercher des trucs sympas avec du cartilage animal/des carapaces (regarde les Coléoptères ils sont jolis) Le bâton a un bon équilibre je trouve, tu peux ptêtre essayer de creuser une vibe plus antique dans les formes ou les détails?1 point
-
Ah oui en effet tu es à fond dedans ! Tu vas vite avancer alors, c'est cool 🙂1 point
-
Hello @Spartan de DPSchool merci beaucoup pour tes réponses indicatives pour ma progression 😊 Je m'y consacres toute la journée de 8h à 18h (en faisant des toutes petites pauses quand même 😂) Oui je suis très motivé pour progresser au fur et à mesure des chapitres. Vive les semaines et les mois où je vais suivre les cours à temps plein ! A bientôt 🌞1 point
-
1 point
-
Salut! Pas facile, facile comme sujet! Ca donne bien l'impression d'une gravité modifiée selon les plans. Je pense que la perspective du gars en haut à gauche n'est pas très bonne. On devrait plus le voir par dessus si on suit ton plan. En tout cas on devrait moins voir son dos. Ensuite le trou noir à côté des personnage me gêne un peu perso. Je le mettrais soit plus haut; soit plus petit. Il prend trop d'importance par rapport au personnage de devant. A voir ce que tu préférerais mettre en avant. Les personnages du premier plan ou le trou noir. Comme on est en valeur de gris et c'est là où tu as plus de contraste, le regard est attiré par le trou noir et pas forcément les personnage. A toi de voir. J'espère t'avoir aidé un peu Ah oui, peut être rajouter des gens qui marchent sur les murs arrondis au fond?1 point
-
Respire à fond, Xuan, et détends-toi. Certes, il y a danger, mais les jeux ne sont pas faits, loin de là. Il y aura toujours besoin de créatifs comme toi, et en relisant tes propos plus haut, on voit que tu détiens des clés que les IA n'ont pas. 1/ce qui leur manque : -les IA n'ont aucune imagination, elles ne font que piocher et remâcher recracher l'existant ; -elles ne savent absolument pas quoi faire dans les situations inédites où il faut absolument improviser, inventer (d'où leur échec en médecine et avec les bagnoles sur des routes qu'elles ne connaissent pas) ; -elles n'ont aucun humour, aucune propension au rire qui est "le propre de l'homme" ; -elles ont un mal fou à identifier les émotions (dans le docu Arte, l'IA a osé conclure que La Joconde n'avait pas d'expression !!!) ; -elles n'en ressentent pas parce qu'elles n'ont pas de cœur, de pensée, d'âme, de conscience morale ; -elles sont des machines programmées intentionnellement à des fins financières pour copier les humains et tenter de les remplacer, Mais pour les images il y a un hic, les images sont chargées d'émotions, elles parlent, elles racontent, elles ne font que ça, et aucune IA ne saura décrypter le langage d'une image. En rebricoler plusieurs existantes, oui, mais en créer ex nihilo et en sentir le langage, non. 2/déjà quelques limites : -je ne sais pas toi, mais j'ai déjà noté quelques ras le bol concernant toutes les réalités augmentées dont nous sommes déjà largement abreuvés : sur les appareils photos, les placages de visages animés à la télé, la surabondance d'effets spéciaux au ciné, etc. à force, ça devient lassant, et ça, quelqu'un l'a dit plus haut, c'est un risque majeur pour ces IA -il y a la question du droit d'auteur, Spartan en a parlé, bonjour les procès à venir, pour faire jurisprudence et définir la loi, ça va être une belle tuerie, ça ressemble beaucoup aux vieux procès concernant l'usage des samples en musique... Il y aura intérêt à faire signer une décharge sur suites judiciaires aux clients qui imposeront l'usage des IA. Ceci dit, c'est là. Il faut faire avec, pas le choix. Alors, comme les peintres-portraitistes (exemple de Spartan) sont devenus photographes-portraitistes, autant que les créateurs d'images numériques deviennent créateurs d'images numériques avec maîtrise IA. Donc Xuan amuse-toi dès que possible avec ces trucs-là, et va voir le post de Suisseï, très très bien expliqué (super boulot d'exploration, bravo !) et très rassurant pour tous ceux du métier 😉1 point
-
ton contour de la forêt est un peu trop net, mais sinon c'est validé, good job 🙂 Je ne pense que ça vaille la peine de reposter les corrections, donc tu peux passer à la suite1 point
-
Nice job tout ça, tu as quelques soucis de coloration par contre, tu as mis un gros coup de brush blanc sur la partie gauche ce qui a désaturé la couleur de l'eau et de la terre Globalement, ton image est un peu trop jaune , il manque du rouge pour la terre et du bleu pour les montagnes, la neige et l'eau. Pour la gestion de l'eau, voilà un petit tuto pour te montrer comment je peignerais de l'eau en stylisant, en simplifiant. continues 🙂1 point
-
1 point