Aller au contenu

Classement

Contenu populaire

Affichage du contenu avec la meilleure réputation le 09/20/2023 dans toutes les zones

  1. Ma contribution du jour 🙂 Bonne journée à tous 🙂
    9 points
  2. Bonjour, voici une bonne partie des portraits que j’ai fait cette année.
    8 points
  3. Bonjour, Ha beh pour une première c'est un bel exercice !! Voici ma petite collaboration. J'espère que je poste au bon endroit ?! N'hésitez pas à me faire part de vos retours.
    4 points
  4. Quoi, c'était pas celle-là aujourd'hui? Oooooooooops
    3 points
  5. Yo les peintres ! Cette semaine c'est étude ! Alors on ouvre grand ses mirettes et on admire ce que l'on va ensuite reproduire. Cette fois, l'étude porte sur trois oeuvres au choix: Grant GRIFFIN Ankush SHARMA Bashzim Quelques conseils : - Plissez les yeux pour rendre l’image floue et concentrez-vous sur les valeurs. Ensuite faites pareil avec votre painting et comparez si le ressenti visuel est le même. Si vous êtes bien partis, continuez à détailler. - Peignez les grosses masses en premier, et affinez au fur et à mesure. Vous pouvez également vous aider du cours sur comment peindre des matières réalistes. N’oubliez pas, cela n’a pas besoin d’être détaillé à l’identique. Le but est de retirer les connaissances nécessaires, pas forcément de passer 20h dessus. A vous d’en juger ! N'oubliez pas de commenter les travaux précédents:) Bonne semaine à tous et faites chauffer vos tablettes !
    2 points
  6. Salut à tous !! Après une petite pose créative consacré a faire des choses que je sais faire pour me rebooster un peu, voilà finalement la fameuse rose, pour laquelle j'ai consacré trois fois moins de temps ! sans etre complètement satisfaite du résultats (manque très clair des veines des pétales mais je ne sais pas commet m'y prendre), je suis relativement satisfaite ! Dites moi ce que vous en pensez et quels sont les axes d'amélioration ! (si vous avez des tips pour les veines, n'hésitez surtout pas !)
    2 points
  7. Hello ! De retour avec l'exo de la rose. Je n'ai pas chronométré mais je dirai 10h-12h. Qu'est-ce que vous en pensez ?
    2 points
  8. Et puis la montagne. En deux parties : la première étape géométrique de découpage de l'image, puis la version finale avec les textures. Je ne me suis pas aidé de la vidéo tutoriel de la montagne pour toute la partie du lasso, puis je me suis autorisé à la regarder pour avoir des astuces de textures.
    2 points
  9. Bonjour à tous ! ça y est ! Je suis enfin élève du Programme Indispensable. Je suis sur le site depuis ses débuts mais je n'ai jamais sauté le pas du programme indispensable car je n'arrivais pas à passer le cap des exercices gratuits et notamment, des fameuses montagnes, mais aussi de la rose. Après les avoir refaits plusieurs fois, j'ai fini par comprendre des trucs et par apprivoiser Krita ainsi que ma tablette graphique. Bref, j'arrive donc ici sur la partie 2 avec les touts premiers exos. J'ai une question : quelle est la meilleure manière de tracer parfaitement la forme que j'ai indiqué avec un point d'interrogation en rouge ? J'ai eu un peu de mal à trouver les bons outils pour le faire. Qu'en pensez-vous ? Merci pour vos retours. Floriane
    1 point
  10. Bonjour, me voici sur le chapitre 2 avec les premiers exercices sur les croquis.
    1 point
  11. Bonjour, Voila je travaille sur un dossier BD, ce n'est pas la premiere fois que je le propose, mais il y a 2 ans mon niveau en dessin n'était pas au point je pense. Donc voila je me disais que ça pourrait être bien de partager les différentes étape de création afin de progiter de vos conseils et commentaire. Pour commencer je voudrais vous montrer ce aue j'avais produis pour l'ancienne version.
    1 point
  12. Hello @Nym ( En avant ! )! Super ta correction! Oh je comprends mieux! C'est pas simple les cactus et les fils de fers! Mais ne t'inquiète pas ça va venir!💪 Ton robot est super! Il faudrait juste rendre les couleurs moins saturées. Ici tes persos ont quelques problèmes de proportions au niveau des bras qui sont un peu trop long. Tu peux agrandir aussi la tête pour qu'il est plus de mâchoire et de front. Il faudra retravailler un peu plus les mains. N'hésite pas à te prendre en photos pour t'utiliser en tant que ref ça aide beaucoup.😉 Ton perso ailé est super! Continue comme ça!😁
    1 point
  13. Salut ! Merci pour ton retour!😄 Voici la correction du petit pot à sel , je n'ai en revanche pas fais l'autre , c'était un petit vase avec un cactus dedans( les fils de fer c'est vraiment chiant😭), mais je m'exercerais quand même sur le traditionnel ! et voilà l'exercice 7 et un aperçu du 8
    1 point
  14. Ok, je me suis emballé en essayant de faire le croquis (pas la couleur, ce que je trouve très dur). Dur dur les reflets de partout, j'ai l'impression d'être très imprécis sur celui là.
    1 point
  15. Bon boulot sur ton Dp de la montagne tu t'en es bien sorti !
    1 point
  16. Hello ! Voilà un petit monstre tout droit sorti de l'exo 3.5, fait dans la journée. J'ai tenu à en créer un moi-même plutôt que de copier celui du tuto (et c'est très satisfaisant de le faire 🙂 ) N'hésitez pas à me dire ce que vous en pensez, je serai très heureux de lire vos remarques et vos critiques !
    1 point
  17. Merci pour vos retours. Voici le troisième exercices avec le croquis d’Hubble.
    1 point
  18. Bonjour !! Je reprend ce sujet après un loooong moment pour poster de nouvelles études !! N'hésitez pas a me faire des retours ou des critiques ! Merci !
    1 point
  19. Tes proportions sont globalement mieux oui. 🙂 Et ton rendu est vraiment chouette, tu n'auras dans tous les cas pas perdu ton temps à faire cette étude qui est très réussie !
    1 point
  20. bon, voici l'exercice 5 de la partie 1 : le fond des oisillons. Alors ne vous méprenez pas, je n'ai pas abandonné le poivron ni la tasse, le poivron d'ailleurs est en cours de réalisation. J'ai juste mis ca de côté temporairement pour passer au chapitre dédié au croquis car j'ai pas mal décroché des exercices 4 : il fallait que je fasse des exercices différents. Je vais avancer sur le chapitre 2, et d'ici quelque jours, reviendrai sur le chapitre précédent pour terminer ces paints. à bientôt pour la suite 😉
    1 point
  21. Hello @Suisei, Oui j'avais jeté un coup d'oeil il y a un moment dans un précédent post avec tout tes tests fort intéressants. Il est vrai que le débat laisse peu de place à l'intermédiaire qui pourrait se trouver être un équilibre entre les deux, et encore ça reste complexe. Concernant les personnes qui utilisent l'IA à forte dose, je dirais qu'il y a deux catégories, ceux qui sont naïf, qui ignorent ce qu'est l'art, et ceux qui savent très bien ce qu'ils font et qui veulent trouver un moyen de faire de l'argent avec. Une forme d'imposture en découle également. Tu n'imagine pas le nombre de fois que j'ai vu un prompter répondre aux commentaires des gens qui ignorent que c'est de l'IA en faisant croire qu'il avait créé l'oeuvre de toute pièce. C'est Lunaire..... Ceux qui le font par pur hobby on les entend pratiquement pas à vrai dire, et aucun problème avec ces personnes, quoi que c'est dommage qu'ils fassent pas eux même leur oeuvres. Mais pour les autres on les entend fortement, sur mon fil Twitter je vois passer de temps en temps des images d'IA venant de pages de prompters proclamé artiste dont je ne suis même pas abonné, et ceux là enflamment les statistiques, ils ont plus de likes que toi tu n'auras jamais, pareil sur Artstation et compagnie. Et certains font leur business avec ça. L'impact sur le monde pro à cause de l'IA est déjà énorme, beaucoup de freelance se retrouvent sans contrat, et petit à petit les boites se tournent vers celle-ci pour différentes tâches artistiques. à propos du tradi avec l'arrivé de l'informatique, vois-tu beaucoup d'artistes pro payer leur factures en dessinant sur du papier ? C'est très dur aujourd'hui de monter un business avec des dessins uniquement en dur. Alors oui ça n'a pas disparu mais le monde pro s'est dirigé vers le digital, et si rien n'est régulé pour l'IA alors le monde pro se dirigera vers les générateurs d'image ,et l'art, le vrai aura bel et bien disparu du monde pro. Cela veut dire que toute la pop culture produite dans le futur sera le fruit d'une machine, et j'ai pas envie que ça termine comme ça..... Les artistes pro sont essentiels à notre société, c'est leur travail qui est vu par la population et qui a une large influence sur le monde. Les Hobbyiste n'ont pas ce pouvoir, ou très peux malheureusement. Maintenant un équilibre peut être trouvé, tu as fais ton test, et j'ai fait le mien, nous avons tous les deux conclu que l'IA utilisée avec forte modération, prudence ,et d'une certaine façon peut être très intéressante. Cependant est-ce que le monde dans lequel nous vivons sera de cet avis ? Ou plutôt de l'avis "il faut tout remplacer pour faire plus d'argent" ? Merci d'avoir pris le temps de m'écrire, cela me donnera peut être des idées sur un paragraphe à rajouter 🙂
    1 point
  22. Hello ! Je viens aussi de lire ton article. Je n'ai pas le temps d'écrire une dissertation pour débattre point par point, je vais simplement partager un lien vers une approche plus nuancée du sujet. Ce qui m'attriste le plus dans ce débat, c'est qu'il est hyper polarisé en mode bataille rangée prompteurs d'un côté vs artistes de l'autre parfois à un niveau haineux depuis la sortie des Midjourney & co. Mais il n'y a pas de terrain de discussion. Ça empêche une réflexion commune. N'est-ce pas ce qu'il y a de plus dangereux au final ? On tend à présupposer les intentions des prompteurs, à présupposer qu'ils méprisent les artistes (tout ça à cause d'une poignée d'individus minoritaires qui se sont faits remarquer), à juger que c'est mal qu'ils soient contents d'utiliser les IA. Mais au fait, quelqu'un a été discuter avec eux entre 4 yeux pour leur demander leur ressenti, leurs motivations, leurs contraintes aussi ? La plupart d'entre eux font ça comme hobby sans prétention professionnelle, je pense que c'est important de le noter. Ils restent eux aussi des humains avec des émotions et peut-être qu'ils estiment pour une raison X ou Y que c'est le meilleur moyen de les exprimer pour eux. Ont ils raison ou tort ? Je pense que trancher cette question serait présomptueux. On n'est pas dans leurs baskets. Du coup, ça tend à tourner à la chasse aux sorcières qui ne laisse pas de place à des voies intermédiaires. Parce que oui, il y a eu des cas graves d'harcèlement à l'égard d'artistes qui ont eu le malheur d'ajouter un peu de contenu généré par IA dans des arrières plans ou qui ont été seulement soupçonnés de le faire sans preuve. Rien ne justifie le harcèlement. Le débat se limite à l'IA est-il un outil oui ou non ? La question devrait être : comment pourrait-on l'adapter pour la reléguer au statut d'outil ? Si les 2 camps sont convaincus qu'on ne pourra pas faire retourner le génie dans la lampe, c'est plutôt à ça qu'on devrait réfléchir activement tous ensemble, non ? Comment rendre l'usage de ces IA constructif ? Je te propose ici une idée de workflow avec 2 démo dont l'objectif et de redonner le contrôle à l'artiste, où l'IA n'impose pas l'image mais sert de simple assistant de finition et de générateur de textures. En fait, il s'agit même de faire l'exact inverse de ce que tu reproches aux utilisateurs d'IA. L'idée est d'accélérer les tâches répétitives pour laisser plus de temps à l'artiste pour utiliser sa tête (réfléchir à l'intention, la compo, la palette, tester plus de possibilités...). La 2ème démo est suivie d'un banc de test d'environ 9000 images pour te rendre compte de la quantité de recherche. Les artistes qui deviennent dépendant des IA et se contentent de retoucher un peu des images qui leurs sont imposés, ça les regarde. Je ne suis pas de ce moule là. Ce qui m'intéresse, c'est de voir s'il est possible de contraindre l'IA à répondre à un cahier des charges, à une charte graphique déjà établie, qui plus est si elle sort des styles mainstreams. La réponse est non. Et vu comment ça patauge dans l'uniformisation, la réponse restera non encore longtemps. Mais ça, faut suivre l'activité des communautés IA pour s'en rendre compte. Oui, les IA sont capables de générer des images très impressionnantes, mais ces images, je ne sais pas quoi en foutre parce que répondre à un besoin, une intention, c'est pas juste générer de belles images aléatoires. "-Stable Diffusion, je veux que tu me donnes un cardassien dans mon propre style de dessin. -J'ai pas de ça dans ma besace, mais je peux te donner une belle waifu à la place. Ça te va ? -Remboursé !!! " Pour moi l'idée que les IA vont faire disparaitre la pratique artistique épanouissante, c'est une caricature irréaliste. Modifier les métiers de l'industrie du divertissement (je pense que c'est pas pour rien qu'on appelle ça une industrie depuis longtemps), sûrement, oui. Faire disparaître la pratique de l'art au jus de coude, non. Parce que s'il suffisait d'une technologie pour la faire disparaître, le matériel beaux arts tradi aurait disparu depuis longtemps avec l'avènement de Photoshop. Ce n'est pas le cas et les feutres à alcool n'ont jamais été aussi à la mode qu'actuellement. Le fait que l'IA s'installe professionnellement ne change rien au fait que nous sommes tous humains et que beaucoup d'entre nous, quelque soit le métier qui nous nourrit, avons besoin d'employer notre temps libre à des activités créatives, en dessinant, en peignant, loin des écrans d'ordinateurs. Et ceci, même si on est artistes pro. Y'a un moment répondre à des demandes client c'est épuisant voire frustrant. Il y a un moment où on a envie d'avoir la liberté de créer pour soi (je pourrais pas m'en passer, perso). Que les IA soient là ou non, qu'est-ce qui nous empêche de salir du papier avec des pigments si on en a envie ? Juste, rien. Rien du tout. Tu as envie de le faire ? Et bien fais le. Y'a pas de laisse pour t'arrêter. J'ai beau être la miss bidouille IA du coin, je reste une fervente pratiquante du tradi et il n'y a aucune chance que ça change à moins qu'on me coupe les mains... Et encore... Voilà, j'espère que cette intervention enrichira aussi ton point de vue sur le sujet. 🙂
    1 point
  23. Bonjour @Toto ! C'est sympa de me répondre, cela me permet de revoir mon DP "à travers" les yeux d'un autre ! Et, ainsi, je n'avais pas effectivement réalisé que j'avais trop forcé sur le halo blanc. C'est un coup à ce que la femme perde la vue entre la lumière du ciel et la réverbération sur la neige... OK, je vais lui éviter de devoir s'équiper avec des lunettes de soudeur ! Et merci pour tes conseils ô combien pertinents en matière de "zizinpathie", tu ne sais pas à quel point tu fais mouche ! C'est sûr, pour avancer, il faut tomber et se relever, encore et encore. C'est, ne rigole pas, ce que je dis souvent à mon petit-fils de 7 ans, qui préfère ne pas faire quelque chose quand il sent qu'il n'y parviendra pas sans subir des échecs... je ferais bien de me regarder dans la glace quand je lui dis ça !
    1 point
  24. Hello merci beaucoup pour ton retour ! Oui j'ai utilisé pas mal de références, et j'ai une idée assez claire du paysage que je veux donc ça aide ! Je continuerai au prochain chapitre désormais 😉 Voilà la suite avec le petit robot !
    1 point
  25. Olala, très très cool ta proposition @gilles29! 🙂 Et bienvenue à toi @LineBlue! Hésite pas à venir quand tu veux ou à prendre d'anciennes réfs qui t'inspireraient plus ! 🙂 Et pour tout le monde, voici la réf pour demain ! Promis, j'essaie pas de vous torturer malgré cette tête penchée et cette main... 😛 Bon courage !
    1 point
  26. Salut @Yoann , pour le premier, c'est revenu. Pour les posts, je veux dire que ceux du chapitre 8 (par exemple) que j'emets, n'apparaissent pas dans mon file d'actualité "Nouveau sur mes sujets".
    1 point
  27. Merci infiniment, j’ai déjà hâte de travailler les autres chapitres !
    1 point
  28. Les 4 derniers jours. J'ai fait réf buissonnière comme dirait @alkecesa pour un projet qui verra peut être le jour où pas. 😁 Tu donnes dans le cannibalisme maintenant @Ercwolf ? Sans déc, ça doit être hyper balaise de se bouffer l'aorte 👀 Non, mais en vrai on sait plus comment s'arrêter @Spartan de DPS c'est quasi une secte,une addiction? Au secours ! 😱
    1 point
  29. Allez je rattrape un portrait (2h30) et j'ajoute celui d'aujourd'hui (30 min chrono) :
    1 point
  30. Salut! bon voila j'ai enfin fini la rose 😀
    1 point
  31. Création suite à une commande pour un motard en vue d'une pose sur sa machine. Fait via un iPad Pro avec Procreate. Première création en digital painting. Fait en une vingtaine heures.
    1 point
  32. Comment ça marche ? Pour commencer, faisons une petite précision sur le type d’IA qui fait beaucoup parler de lui de nos jours, il s’agit du deep learning. L’intelligence artificielle est en réalité un champ d’étude très vaste regroupant des sous domaines qui ont eux-même des sous domaines. Le machine learning est un sous domaine de l’intelligence artificielle et le deep learning est lui-même un sous domaine du machine learning. Je vous explique le principe de fonctionnement sans vous assommer avec les détails techniques. Vous verrez que finalement, qualifier ces algorithmes d’”intelligence” artificielle est un putain d’abus de langage. Le principe de base du machine learning Bon, vous allez être un peu surpris mais… Le machine learning, vous en avez tous fait à l’école sur papier. Si si ! Je vais vous montrer. Vous avez sûrement déjà vu ce genre de graphique et on vous sûrement déjà demandé de tracer à la règle une droite qui passe le plus près possible de tout ces points. Pour l’anecdote je me souviens l’avoir fait en cours de physique au collège. La prof nous avait donné un graphique avec des mesures de la température d’ébullition de l’eau en fonction de l’altitude. Elle nous a demandé de tracer la droite la plus proche possible de tous les points, comme ceci : C’est une fonction affine de type y = ax + b. Ensuite, elle nous a demandé de placer 2 points dessus et de mesurer leur position pour calculer les paramètres a et b de la fonction affine et pour finir, à l’aide de ces paramètres calculés, elle nous a demandé de prédire la température d’ébullition de l’eau pour une altitude donnée. Et bien voilà, le machine learning, ce n’est rien d’autre que ça : utiliser les données récoltées pour calculer les paramètres a et b optimaux pour construire un modèle de type y = ax + b qui soit capable de prédire la valeur de y par rapport à une donnée x avec la marge d’erreur la plus petite possible. C’est con, hein ? 😄 Comme vous pouvez le voir, la droite n’est qu’une approximation et il est impossible de la faire passer par tous les points. Tout ce qu’on peut faire c’est essayer d’avoir la marge d’erreur moyenne la plus petite possible, mais elle ne pourra jamais tomber à zéro. Alors on pourrait imaginer un modèle beaucoup plus compliqué capable de passer par absolument tous les points, comme ceci : Modèle de type Mais vous voyez bien que ce modèle est complètement absurde par rapport à la réalité de la physique et que si vous ajoutez une nouvelle mesure dans les données, comme ceci : Et bien la marge d’erreur est même encore plus grande que si vous vous étiez contenté d’une simple droite. C’est le problème de la généralisation du modèle. Un bon modèle doit être capable de minimiser les erreurs sur les données d’entraînement, mais tout en les minimisant sur de nouvelles données aussi. Le travail d’un data scientiste consiste donc à analyser les données et sélectionner un modèle qui propose le meilleur compromis possible entre la précision vis à vis des données d’entraînement et la capacité de généralisation. La perfection est impossible à atteindre parce qu’il y a des fluctuations et du bruit dans les données. La droite est un exemple. Selon la distribution des données on peut avoir besoin d’un modèle différent, comme ici : Ici on a un modèle de type et il faut optimiser les paramètres a, b et c. Voilà pour les bases du machine learning. La particularité du deep learning, c’est qu’on ne va pas ajuster 2 ou 3 paramètres, mais des millions, voire des milliards de paramètres pour traiter des paquets de données en vrac. Mais le principe est identique. Le deep learning Les schémas que je présente dans cette section sont des captures d’une vidéo de la chaîne Machine Learnia sur le thème du Deep Learning sur Youtube. Je vous parlerai de cette chaîne dans la bibliographie. Le premier concept de neurone artificiel a été élaboré par deux mathématiciens, Warren McCulloch et Walter Pitts, en… 1943 ! Je vous avais prévenus que vos parents n’étaient pas encore nés. x) Rappelons le principe de fonctionnement d’un neurone, un vrai. En orange, vous avez les dendrites qui sont connectées aux terminaisons d’autres neurones. Elles sont excitées ou non selon que les neurones qui les précèdent le sont ou non. Si le niveau total d’excitation dépasse un certain seuil, le neurone est à son tour excité et transmet l’information à ses terminaisons (en vert) qui sont elles-mêmes connectées aux dendrites d’autres neurones. Et bien le neurone artificiel s’inspire du même principe : il fait la somme des signaux x qui peuvent être des données d’entrée ou le résultat d’autres neurones artificiels (on appelle cette étape agrégation), il vérifie que cette somme dépasse un certain seuil, ou pas et si c’est le cas, le résultat y vaut 1, sinon il vaut 0 (c’est l’étape d’activation). Notez que lors de l’agrégation, toutes les entrées n'ont pas la même influence. Celle-ci est définie par les paramètres w. On appelle cela les poids et c’est de ces poids que dépend la fonctionnalité du neurone. A l’époque nos 2 mathématiciens suggéraient déjà qu’on pouvait organiser les neurones artificiels en réseau. Mais il y a un hic ! Ils n’ont pas proposé d’algorithme permettant d’ajuster automatiquement les poids w, ô combien importants pour pouvoir définir la fonctionnalité qui ressortira du réseau de neurones, il fallait donc les définir à la mimine ! L'engouement pour l’IA est retombé comme un soufflet. Pfffft ! 💨 Il faut attendre 1957 avant que ne soit proposé le premier algorithme d’apprentissage automatique du neurone artificiel. L’idée est proposée par le psychologue Frank Rosenblatt et s’inspire toujours du principe de fonctionnement des vrais neurones. En gros, quand 2 neurones reliés entre eux sont excités en même temps, la connexion entre eux est renforcée. L’algorithme d’apprentissage s’appuie sur cette idée là. Dans la pratique, avant l’entraînement, on donne une valeur aléatoire à tous les poids w. Ensuite, on fait passer les entrées x dans le réseau de neurones qui calcule un résultat y. On compare ce résultat aux données d’entraînement y réelles. On ajuste les poids w de manière à ce qu’ils donnent un résultat plus proche des données réelles. Puis on recommence : on fait passer les entrées x dans le réseau de neurones qui calcule un résultat y. etc etc… Et ainsi de suite jusqu’à ce que la marge d’erreur ne bouge plus. Mais il y a encore un hic ! L’algorithme d’apprentissage proposé à l’époque ne pouvait fonctionner que sur une seule couche de neurones, et ne pouvait donc résoudre que des problèmes qui pouvaient être représentés par une droite. Alors ici, séparer 2 catégories avec une droite pas de problème. Mais là, par contre, on est comme des cons. Le soufflet retombe à nouveau. Pffft ! 💨 Il faut attendre 1986 pour que soit mis au point un algorithme d’apprentissage automatique multi-couche sur une idée proposée en 1974, la back-propagation. Je ne vais pas vous assommer avec des détails techniques, ce sont des math un peu bourrues. Retenez simplement qu’il s’agit d’un algorithme d’apprentissage qui parcourt le réseau de neurones à l’envers pour pouvoir ajuster les poids (d’où le “back”). Les étapes restent toujours les mêmes : Donner une valeur aléatoire à tous les poids. Faire passer les entrées x dans le réseau de neurones qui calcule un résultat y. Comparer ce résultat aux données d’entraînement y réelles. Ajuster les poids w de manière à ce qu’ils donnent un résultat plus proche des données réelles. Faire passer les entrées x dans le réseau de neurones qui calcule un résultat y. etc etc… Si on prend l’exemple d’un réseau de 3 neurones répartis sur 2 couches, on peut déjà résoudre des problèmes plus complexes. Bon, affichons notre petit réseau de neurones avec les opérations que fait chaque neurone. Le truc qu’il faut noter quand vous utilisez une IA, c’est qu’à ce moment-là, elle a fini son entraînement. Les poids w, ils ne bougent plus. Et donc, qu’est ce qu’il fait, là, le réseau de neurones, quand vous l’exécutez ? Il fait juste une grosse suite de multiplications et d’additions… Et c’est tout ! Vous pouvez voir ça comme un méga filtre Photoshop qui fait une opération différente à chaque pixel. J’ai d’ailleurs testé des IA qui ne faisaient pas mieux que des filtres Photoshop. ¬¬ C’est con, hein ? 😄 C’est fou ce qu’on peut faire avec de simples additions et multiplications. Comme vous pouvez le voir, le neurone artificiel ne fait que s’inspirer du principe de base des neurones de notre cerveau, il ne les simule pas. Pour cela il faudrait aller bien plus loin, simuler les réactions chimiques selon les types de neurotransmetteurs et bien d’autres choses que mes maigres connaissances en neurologie ne sauraient vous lister… Le bout de code du neurone artificiel est beaucoup trop simple pour prétendre simuler tout ça. Un réseau de neurones artificiels n’a donc pas grand chose de commun avec un cerveau bien réel. En fin de compte, dire que ce genre d’algorithme peut développer une conscience c’est un peu comme dire que le blender de votre cuisine peut en développer une aussi. Bon, alors du coup, si cet algo est aussi vieux et simple, pourquoi ce type d’IA n’explose que maintenant ? Et bien l’étonnante simplicité du deep learning est aussi son point faible. Outre le fait qu’elle présente, par principe, une limite à la perfection des résultats qu’elle peut produire, celle-ci ne peut fonctionner qu’avec une très grande quantité de données. Sans données pour l’entraîner, une IA créative ne peut générer qu’un bruit aléatoire. Pour pouvoir entraîner des IA de génération d’images, il a donc fallu attendre l’explosion des réseaux sociaux et des smartphones. Les données, on en avait pas assez avant. Second problème, plus un projet d’IA de ce type est ambitieux, plus il faut de neurones et de couches de neurones et plus il faut de données, et plus vous avez de neurones à entraîner et de données, plus l’entraînement est long, et donc, pour économiser du temps, il faut plus de puissance de calcul. La puissance de calcul, on en avait pas non plus assez avant pour avoir des temps d’entraînement raisonnables. Non, le deep learning, ce n’est pas du tout un algorithme éco responsable. x) Pour parler plus grassement, en fin de compte, un projet de Deep Learning, c’est un concours de bites : plus on veut faire un projet ambitieux, plus il faut de moyens (recruter des data scientistes pour récolter et traiter les données, louer des cartes graphiques sur le cloud ou disposer de son propre centre de calcul). Les limites de Midjourney, Dall-E & co Pour en terminer avec le fonctionnement des IA, voici une petite analyse plus poussée des limites des IA génératives actuelles. Pour commencer, voici des captures des galeries de Stable Diffusion et de Midjourney. J’ai aussi refait la même recherche que Spartan sur les démons pour Stable Diffusion. Y’a pas un truc qui vous fait tiquer tout de même ? Une IA c’est très fort pour recracher des choses qui ressemblent aux données d’entraînements, mais c’est beaucoup plus à la peine pour faire quelque chose de nouveau et dans ces galeries on ne vous affiche que les résultats les plus réussis, et dans les résultats les plus réussis, qu’est-ce qu’on trouve majoritairement ? Des portraits, des légions de portraits ! Les concepts de personnages ont tous à peu près le même posing et si on inclut les quelques décors on constate que tout est vu à hauteur d’yeux. Par contre, pour les keyframes du genre un personnage accroupi qui observe une fleur vu en plongée, un bonhomme qui surfe sur un skate volant vu en contre plongée ou 2 personnages qui font un câlin, on repassera. C’est pour ça que la tentative de dragon cyberpunk de Spartan s’est soldée par un bel échec critique : des images de dragons, on en trouve à la pelle, des images de dragons cyberpunk, vachement moins ! Alors, pourquoi cette limitation ? C’est simple, la nourriture des IA, les données, est aussi leur plus grand point faible. Le fait est que sur Internet vous trouverez plus de portraits vus à hauteur d’yeux que de keyframes de malades avec des cadrages improbables, et les personnages qui se tiennent debout dans des poses peu originales, c’est quand même plus facile à dessiner, donc il y en a aussi plus de que des poses complexes. Fatalement, les IA sont plus douées pour recracher ce type de contenu. C’est pas une surprise. Cependant, des photos et des dessins avec des personnages dans des positions variées, il y en a aussi sur Internet, alors pourquoi ces IA sont-elles paumées avec des demandes anatomiquement plus complexes ? C’est simple, elles s’entraînent sur la base de couples image/description et les descriptions des images ne sont absolument pas écrites par les data scientistes de l’équipe de développement, ils ne sont pas assez nombreux. Non, ils utilisent tout simplement des bots qui vont lire la description que l’auteur de chaque image a rédigé et les mots clé qui vont avec. Mettons, vous faites un beau keyframe avec une scène d’action ou une étude de modèle vivant. Lorsque vous publiez votre image sur le net, est-ce que vous vous amusez à rédiger une description complète du posing et du cadrage comme si vous vouliez qu’un aveugle puisse “visualiser” avec précision le contenu de votre image ? Non. Par conséquent, il y a un trou dans les données et l’IA se retrouve avec des images dont elle ne sait pas trop quoi faire et des possibilités qui ne lui sont pas accessibles. Ceci pose d’ailleurs un problème plus grave : les biais culturels et les stéréotypes. Sans traitement manuel, ce que les IA recrachent est à l’image du contenu qu’elles trouvent sur Internet. C’est d’ailleurs comme ça que les tentatives d’IA de conversation ont fini par tenir des propos racistes et que le portail francophone de Google a un jour affiché l’affiche du film Black Panther associée au titre La Planète des Singes en faisant passer ça pour une fiche d’Allo Ciné. Les activistes d’extrême droite savent très bien comment fonctionne le deep learning et comment entuber une IA de ce genre. C’est simple : il suffit de publier une association entre une image et un texte de façon à ce qu’elle devienne plus fréquente que l’association affiche/titre originale. Les développeurs de Craiyon font d’ailleurs une mise en garde à ce sujet dans leur FAQ. https://www.craiyon.com C’est écrit aussi sur le site de Stable Diffusion : https://stability.ai/blog/stable-diffusion-public-release En parlant de câlins, voici un test que j’ai fait avec Midjourney. Décryptage d’un petit exemple. Je lui ai demandé de me “dessiner” les pilotes de Formule 1 Max Verstappen et Lewis Hamilton qui se font un câlin. Voici le résultat après plusieurs itérations. Oui, c’est dégueulasse. Y’a des trucs malaisant. Désolée si vous étiez en train de manger. :’D Ici encore, le point faible, ce sont les données. Sur cette image, avec les copains, on soupçonne Midjourney d’avoir utilisé des morceaux d’un autre pilote pour recréer Max Verstappen : Charles Leclerc. Alors pourquoi ça fait ça ? Et bien, toujours pour la même raison. Midjourney et ses semblables utilisent des couples image/description pour s’entraîner et pour des pilotes de F1, nul doute qu’elles vont piocher les descriptions dans les articles de presse associés aux photos des pilotes ou les hashtags d'Instagram. Sauf que, ces IA, elles sont un peu con con quand même. Charles Leclerc et Max Verstappen sont deux pilotes qui se connaissent depuis tout petits à batailler en piste depuis le kart jusqu’à la F1, il est donc impossible de parler de l’un sans parler de l’autre. Par conséquent, les IA ont trouvé des photos de Charles Leclerc associées au nom de Max Verstappen. Et ne parlons même pas des tas de pécores sur Instagram qui ajoutent des tonnes de hashtag à la pertinence discutable sur leurs publications. ¬¬ Sans oublier les photos où les 2 pilotes sont présents. Résultat, les IA pondent des images de Max Verstappen en prenant des bouts de Charles Leclerc. Et patatra ! Ça donne ce genre de truc étrange… Avec une bouche à l’envers qui bave. 😂 Spartan pense que tous ces défauts seront gommés avec le temps. Voici ce qu’il faudrait faire pour y parvenir : Le fait est, que sur internet, la majorité des images que l’on trouve n’est pas associée à une description exacte de ce qu’elle affiche, et c’est la principale limite qui empêche d’aller plus loin. Pour contourner cette limite, il faudrait renoncer au crawling automatique du contenu du web et recruter des armées entières de gens qui rédigent une description exacte de chacune des milliards d’images utilisées pour entraîner les IA. … On parle de boîtes qui ne sont même pas fichues de recruter assez de monde pour cliquer sur un bouton “Supprimer” à la chaîne pour modérer les contenus haineux et qui sont même en train de licencier du monde en ce moment parce que leurs revenus sont en baisse (Coucou Meta ! ). ¬¬ Le nerf de la guerre, ce sont les données, leur quantité ET leur qualité. Faire avaler des pétaoctets de données à une IA ne sert à rien si on ne les nettoie pas et ne les traite pas avant. Et si elles sont trop chaotiques, il faut se taper le boulot à la main. Stratégie pour hacker les IA Ces IA donnent du pouvoir au camp des clients, mais en s'intéressant au fonctionnement du deep learning et aux cas de fiascos connus on peut se rendre compte que nous aussi, les artistes, avons un certain pouvoir. On peut pointer du doigt les activistes d’extrême droite pour leurs valeurs discutables mais on peut aussi les remercier de nous avoir montré la voie pour mettre du poil à gratter à ces entreprises qui utilisent nos images sans nous demander notre autorisation. Il suffit pour cela de s’attaquer au principal point faible des IA : en sabotant les données ! Voici plusieurs pistes pour ce faire. La première : comme expliqué plus tôt, il y a des trous dans les données qui font que les IA ne savent pas tout faire. Et bien on peut agrandir ces trous volontairement, en arrêtant de poster des portraits et des poses basiques, en nous efforçant de dessiner davantage de poses et de cadrages complexes (c’est pas un mal, ça nous fera progresser 😛 ) et lorsque nous postons nos images, ne surtout pas rédiger de description précise de leur contenu et réduire le nombre de hashtags aux seuls 2 ou 3 les plus pertinents. Ainsi, les IA n’ont aucune chance d’apprendre correctement l’anatomie et la perspective. La seconde : injecter de la merde. Les gens qui mettent des tonnes de hashtags à la pertinence discutable sur Instagram, finalement ils sont pas si cons. Petit exemple : Imaginons que vous dessiniez un Sangoku, seul, en train d’exécuter un Kaméhaméha. Lorsque vous postez l’image sur le net, premièrement, ne décrivez toujours pas la pose et le cadrage exact. Par contre, vous pouvez vous amuser à raconter ce qu’il se passe hors champ, des choses qu’on ne voit pas dans l’image, sans préciser que c’est hors champ (le visiteur humain le comprendra tout seul). Par exemple, que Sangoku va jeter son Kaméhaméha sur Végéta, ou Freezer, ou Cell… Et dans les hashtag ajouter des personnages qui n’apparaissent pas dans l’image, genre #vegeta #cell #freeza #gohan… Ou d’autres hashtags avec un lien éloigné. Comme ça, les IA seront dans la confusion. On peut même pousser le vice en associant ces hashtags à des contenus NSFW. 8D L’idée c’est de rendre le traitement des données impossible de façon automatisée et trop coûteux à la main. Si on s’y met massivement, il y a moyen de geler la progression de ces IA. A titre individuel, il n’y a pas grand chose à faire, juste être un peu attentif à la manière dont on décrit nos images quand on les poste sur Internet, voire être carrément flemmard et en écrire le moins possible. x) Plusieurs IA basées sur le contenu du web ont été sabotées de cette manière par le passé, parfois jusqu’au retrait du marché, donc il n’y a pas de raison qu’on ne puisse pas recommencer. La chose importante à garder en tête c’est que ce qui coûte le plus cher dans le développement d’une IA c’est la récolte, le nettoyage et le traitement des données et on peut rendre ça déraisonnablement cher. Alors en effet, je suis très sarcastique à propos des IA similaires à Midjourney. D’une part je suis assez fatiguée des discours binaires type “On va tous mourir” ou “C’est fantastique ! C’est la révolution !” qui survendent ces IA. D’autres part, j’en ai testées un certain nombre et je les ai trouvées tout à fait inexploitables pour mes projets et mes workflows. Je ne dis pas que ça ne servira à personne, mais ça ne colle pas à mes besoins spécifiques, voilà tout. Pour autant, je ne crache pas sur la technologie du Deep Learning en elle-même. Au contraire, je la trouve super intéressante, mais je vois sa place davantage pour des tâches exécutives spécialisées que pour des tâches créatives généralistes. Bon, maintenant qu’on a vu comment ça fonctionne, abordons la partie fun de l’article. Faire une IA soi-même ! \o/
    1 point
  33. Yo ! Voici un de mes persos de shadowrun. Idéfix est une sniper de talent, elle utilise un Panter XXL pour accabler ses ennemis. Elle à déserté l'armée russe, aux suites d'un bad trip, quand son officier supérieur à mis le feu à ses cultures alors qu'elle était en plein trip. (son traitement dans l'armée, et sa transformation en trolle n'ont pas été des plus plaisantes, c'est la drogue qui la faisait tenir psychologiquement). Elle trouve refuge à Seattle, où elle peuvent ses talents, et acheter ce dont elle a besoin. Elle souffre toujours du contrecoup de son bad trip, un des effets secondaires a été de développer un attachement maternel envers les plantes, d'où son pseudonyme.
    1 point
  34. Voici un digipainting de Purgatori, pour le Drink & Draw Paris
    1 point
  35. Quelques autres illus que j'ai réalisé :3
    1 point
  36. Bonjour à tous ceux qui font la troisième partie du programme indispensable et naturellement, aussi à ceux que la 3D sur Sketchup intéressent. Le but faire une annexe des trucs et astuces que chacun découvre en utilisant ce logiciel. Même avec l'excellente vidéo de Spartan, tout n'est pas dit J'ai trouvé : les menus en français sont à mettre en passant par préférence. Si vous avez mis des matières dans votre scène et que vous les voyez, mais qu’au rendu certaines parties sont différentes... allez dans ´infos sur entité’ (Apple Ctrl/Clic sur la surface). Deux rectangles représentant les matières sont différentes. Transférer par clic déposer la matière voulue vers l’autre non voulue. Pour régler la largeur et la hauteur d’une matière. Double cliquer sur celle-ci pour avoir accès aux réglages. Définition : Sont considérés comme non-manifolds une arête commune à plus de 2 faces, une face en doublon juxtaposé à une autre, un point commun à des faces n'ayant aucune arrête en commun.
    1 point
  37. Merci @Ganakel pour l’info. Je suis sûr que ceux qui passeront par ici (rare, il faut l’avouer) seront content de la connaître.
    1 point
×
×
  • Créer...