Aller au contenu
Challenge J-7 Challenge J-7

Classement

Contenu populaire

Affichage du contenu avec la meilleure réputation le 08/28/2023 dans toutes les zones

  1. Bonjour à tous et bonne semaine, Retour avec le digital painting -> 2h
    7 points
  2. Pas ma préférée, mais je reprends l'entrainement, la prochaine sera mieux!
    6 points
  3. Finalement je n'aurai pas le temps d'aller plus loin
    5 points
  4. Portrait hommage d'une amie décédée il y a quelques années.
    5 points
  5. suis un peu en mode free, mais je vais revenir aux portraits proposés, hein... si si... J'ai fait du "photobashing" ici, pour la structure du micro...
    4 points
  6. Yooooooooooo les peintres ! La rentrée arrive alors on redémarre fort avec un sujet brûlant....... la triche l'intelligence artificielle ! En générale le thème inspire l'image ci dessous mais bon, on va essayer d'être plus imaginatif hein🙂 Difficile de faire plus explicite. Votre mission si vous l'acceptez sera donc de réaliser un painting sur le thème de l'intelligence artificielle. Que ce soit en traditionnel, en photobashing ou autre support artisitique, lâchez vous tant que vous respectez le thème. Les exemple dans la pop culture ne manquent pas (Ex machina, Matrix, Ghost in the shell etc....) Vous avez une semaine. N'oubliez pas de commenter les travaux précédents surtout ! Ah et pour les petits malins, non, vous n'avez pas le droit d'utiliser les logiciels d'IA pour taper IA dedans et voir ce qu'elle vous sort elle même 😜 Allez bonne semaine à tous, et faites chauffer vos tablettes !
    3 points
  7. Allé ! ce sera sûrement ma dernière de la série "sous l'eau"... ou pas...
    3 points
  8. Bonjour je poste une première illustration à partir d'une référence , avant le de débuter ce programme . Bizarrement ce dernier et bien plus sombre et bien plus saturé que sur mon iPad après exportation sur mon pc.
    3 points
  9. Salut à tous ! Premier exercice terminé. Voilà le résultat du fond et l'hameçon :)
    3 points
  10. Hello Voici les 2 du week-end J'ai clairement pas collé au thème pour le 2ème. J'avais envie de quelque chose de léger et de travailler un peu les crayons de couleur. 😊
    3 points
  11. Merci beaucoup pour le retour 🙂 Voilà mes dessins pour l'exercice 3 (je pense que je m'y suis un peu mal pris pour les montagnes au fond).
    3 points
  12. Voici mon évolution dans les différents exercices du Chapitre 1, enjoy 🙃
    2 points
  13. Bonjour à tous, Voici le résultat de mon premier exercice sur Procreate, je n'avais jamais rien fait avec. J'ai fait de mon mieux pour suivre les instructions pas à pas de Spartan mais j'ai eu beaucoup de mal à choisir les mêmes couleurs que lui 😢. J'espère que malgré ça le travail donne un bon rendu. J'apprécierais beaucoup recevoir votre avis. Bonne formation et création à tous. EDIT : Re, Voilà, j'ajoute à ce post mon travail sur le guerrier. Il me faudra du temps et beaucoup de patience pour acquérir les bons gestes (pas très doué en dessin le garçon, paraît que ça se travaille) ... J'ai utilisé le croquis parce que j'ai du mal à avoir un résultat correct. L'essentiel pour le moment, c'est de comprendre la logique Procreate et du DP en général. Les indispensables vont m'être indispensables, je suis déjà inscrit à la partie 1 et j'en suis certain, je suivrai la partie 2 aussi, j'ai absolument besoin de maitriser les bases du dessin et du reste (de tout en gros). Bref, je suis sur le pas de la porte d'un très grand château et je compte bien me donner tous les moyens pour arriver proche du trône 😉 Bonne journée à tous.
    2 points
  14. Hop, chapitre 1 terminé ! Je serais très heureuse d'avoir vos retours sur les deux débuts d'illustrations 😊 (j'en ai profité pour faire une petite guerrière plutôt qu'un guerrier)
    2 points
  15. @zetatoons, C'est avec plaisir que je t'encourage, plus on est de fous ... tu connais la suite, je pense !!! J'étais exactement dans le même cas de figure que toi et j'ai opté pour la formule : Procreate + Les indispensables 1, je sais ça fait un budget mais bon, faut ce qu'il faut. L'avantage pour moi en choisissant cette formule, j'ai la possibilité d'apprendre l'entièreté de Procreate pour pouvoir m'amuser sur des petites illustrations de type cartoon qui me trottent dans la tête (principalement des aplats de couleur et de beaux gros contours). Une fois l'apprentissage de Procreate fini, je me lance dans les indispensables 1, tu as pu le voir, j'ai fait le chapitre 0 de la partie 1, il y a beaucoup de progrès à faire. De plus, pour moi, Photoshop est une vraie usine à gaz, je suis complètement perdu mais avec le temps et les cours, j'imagine que les progrès vont assez vite se ressentir, je croise les doigts. Ce choix m'a tout de même permis d'économiser 65€, ce n'est pas négligeable. Maintenant, je ne pousse pas à la consommation, chacun ses priorités. Je suis convaincu que tu feras le bon choix. Bon courage et bon amusement avec ton Pencil et ton Stylet.
    2 points
  16. Petit rétropédalage, je vais faire complètement autre chose:
    2 points
  17. Après quelle que recherche ça bien bien d’un problème de réglage de mes écrans
    2 points
  18. Bonsoir tout le monde ! Et voici pour vous demain 🙂 . Bonne semaine !
    2 points
  19. Hello, tu as peut être essayé de trop texturer dès le début, surtout tes arbres du fond, du coup tu perds la forme et les arbres sont peut être trop nets du coup. J'ai eu ce même soucis mais ce qui m'a aidé c'est de me focaliser sur les formes générales en plissant les yeux. Essaie ça va marcher !!!
    2 points
  20. j'ai commencer l'exercice 2-5 "décomposer pour peindre" après 5h passer au près je suis rendu a se niveau
    2 points
  21. Allez je me remet à la tablette après l'avoir délaissé cet été. Celui d'hier assez rapide : Et celui d'aujourd'hui beaucoup plus long 🙂 :
    2 points
  22. Aller, voilà l'exo 2,5, je ne me suis pas trop cassée pour la neige mais le reste était fun ! Je pose aussi le Blocking pour voir l'évolution. Qu'en pensez vous ? Je corrigerai surement plus tard.
    2 points
  23. Bonsoir tout le monde ! Vous trouverez ci-après le début de la réalisation de la rose au lasso. Cela démarre plutôt bien même si l'ajout des détails ne va pas être une mince affaire ! Malgré tout, j'ai hâte de vous poster la suite de l'illustration ! Je salue toutes les personnes qui passeront par ici et encourage tous ceux qui suivent également la formation. Bonne soirée et à bientôt sur le forum ! Nasake.
    2 points
  24. Bonjour ! Me revoilà après un bon moment sans pouvoir peindre, mais avec un nouveau pc et un photoshop qui ne rame plus du tout ! 🥳 J'ai commencé l'exercice 3, que je trouve beaucoup plus difficile que le précédent ! J'ai essayé de suivre les conseils de Spartan et de bien décomposer. Je pense avoir fini mes volumes secondaires, mais suis preneur de vos avis avant d'embrayer sur les détails !
    2 points
  25. Bravo tous le monde! Une petite mention pour @Hatsuet @storiart mais j'avoue que @Sildarea tapé très haut avec son capitaine haddock. D'ailleurs il m'a donné envie de participer à cet exo .Je vous présente donc mon Vinci-Gandalf
    2 points
  26. Merci @hygreath et @Lionel Art pour vos retours ! Vous soulevez des points que je ne voyais même plus. Voici donc les deux exercices suites à vos précieux conseils et voici aussi ma reproduction du cimetière. Je n’ai pas réussis à donner autant de texture que dans l’original, je ne comprends pas trop ce qui me manque pour un rendu plus « dessin »… Autre galère: en prenant le modèle dans le coin de mon écran d’iPad (je dessine sous procreate) , j’ai trop dé-zoomé , et par conséquence j’avais mis trop de flou sur l’hôtel de fond. Je m’en suis rendue compte en regardant l’image depuis mon ordinateur et j’ai essayé de re-rendre plus net le bâtiment (je ne sais pas si ça se voit encore 😂🫣)
    2 points
  27. Olà tout le monde ! Je suis Haiko (Alex de mon vrai nom) ! 😄 J'ouvre ce sujet car voila plusieurs mois que je bosse le programme indispensable seul dans mon bureau, je ressens un grand manque d'échange et d'interactions avec des personnes physiques et je pense peut-être comme beaucoup que cet isolement bride mon rythme, ma motivation et donc ma productivité. 😔 Je ne me sens pas assez stimulé et mon seul moyen de l'être est par du contenu en ligne et il me semble important pour moi de rencontrer des personnes qui font la même chose que moi afin de se tirer mutuellement vers le haut et s'apporter des regards et réflexions différentes pour ainsi faire évoluer notre art et toujours plus progresser ! 🙂 Si il existe d'autres personnes dans le coin qui souhaitent interagir, bosser en BU, dans un café ou autre, toujours dans la bonne humeur et la bienveillance, je serais ravi de vous rencontrer 😄 👋 Bon brush à vous !!
    1 point
  28. Hello, J'ai commencé le digital painting récemment après un long moment sans dessiner (papier et crayon). Voici ma première création sur Krita (inspirée d'une photo que j'ai prise) et je voulais avoir des retours pour m'améliorer sur mes futurs dessins. Bonne journée à tous 🙂
    1 point
  29. Merci @Lionel Artpour ton retour et tes encouragements ! Je clôture enfin le chapitre avec le début de l'exercice des oisillons 🙂
    1 point
  30. Bonjour et bienvenue dans le programme. Je laisserai le soin aux formateurs de faire un meilleur retour que moi qui suis aussi au début du programme mais je trouve que c'est un super début. Pour vraiment chipoter, je dirai qu'il n'y a que la forme 4 où il manque un peu d'ombre à la base mais c'est vraiment un détail. Bon courage pour la suite.
    1 point
  31. Joli début ! Et vive Hollow Knight !
    1 point
  32. Je rejoins les commentaires de violaine et haikio, c'est du super boulot, beau level up sur tes derniers croquis, on sent que tu commences à être à l'aise avec le process, c'est prometteur pour la suite 🙂 Continue comme ça!
    1 point
  33. Ok super, c'est plus lisible du coup. Dans l'ensemble ca fonctionne bien, Y'a quelques petites lignes de fuites qui ne suivent pas forcément la perspective mais sinon c'est plutôt cool, keep it up !
    1 point
  34. Celui d’hier au crayon et celui d’aujourd’hui à l’huile sur toile
    1 point
  35. J'espérais dissimuler ma galère avec le flou 😄 Merci pour les encouragements, c'est pas censé être important mais ça l'est quand même. 😉 Pour les veines, tout le mérite revient à Asterian et son tuto (même si je l'ai un peu adapté à ma sauce). 😉 Assez d'accord sur la ligne d'horizon.
    1 point
  36. Bonjour, Bravo à tous pour vos exos de la semaine, ils sont tous très réussis ! Voici le mien avec un mix du manga/anime Attaque des Titans & une œuvre de Joaquin Sorolla. Mon image parlera peut être plus aux connaisseurs… Je suis aussi partie de 0 histoire d’en faire une étude rapide en même temps. Passez une bonne journée 🙂
    1 point
  37. Comment ça marche ? Pour commencer, faisons une petite précision sur le type d’IA qui fait beaucoup parler de lui de nos jours, il s’agit du deep learning. L’intelligence artificielle est en réalité un champ d’étude très vaste regroupant des sous domaines qui ont eux-même des sous domaines. Le machine learning est un sous domaine de l’intelligence artificielle et le deep learning est lui-même un sous domaine du machine learning. Je vous explique le principe de fonctionnement sans vous assommer avec les détails techniques. Vous verrez que finalement, qualifier ces algorithmes d’”intelligence” artificielle est un putain d’abus de langage. Le principe de base du machine learning Bon, vous allez être un peu surpris mais… Le machine learning, vous en avez tous fait à l’école sur papier. Si si ! Je vais vous montrer. Vous avez sûrement déjà vu ce genre de graphique et on vous sûrement déjà demandé de tracer à la règle une droite qui passe le plus près possible de tout ces points. Pour l’anecdote je me souviens l’avoir fait en cours de physique au collège. La prof nous avait donné un graphique avec des mesures de la température d’ébullition de l’eau en fonction de l’altitude. Elle nous a demandé de tracer la droite la plus proche possible de tous les points, comme ceci : C’est une fonction affine de type y = ax + b. Ensuite, elle nous a demandé de placer 2 points dessus et de mesurer leur position pour calculer les paramètres a et b de la fonction affine et pour finir, à l’aide de ces paramètres calculés, elle nous a demandé de prédire la température d’ébullition de l’eau pour une altitude donnée. Et bien voilà, le machine learning, ce n’est rien d’autre que ça : utiliser les données récoltées pour calculer les paramètres a et b optimaux pour construire un modèle de type y = ax + b qui soit capable de prédire la valeur de y par rapport à une donnée x avec la marge d’erreur la plus petite possible. C’est con, hein ? 😄 Comme vous pouvez le voir, la droite n’est qu’une approximation et il est impossible de la faire passer par tous les points. Tout ce qu’on peut faire c’est essayer d’avoir la marge d’erreur moyenne la plus petite possible, mais elle ne pourra jamais tomber à zéro. Alors on pourrait imaginer un modèle beaucoup plus compliqué capable de passer par absolument tous les points, comme ceci : Modèle de type Mais vous voyez bien que ce modèle est complètement absurde par rapport à la réalité de la physique et que si vous ajoutez une nouvelle mesure dans les données, comme ceci : Et bien la marge d’erreur est même encore plus grande que si vous vous étiez contenté d’une simple droite. C’est le problème de la généralisation du modèle. Un bon modèle doit être capable de minimiser les erreurs sur les données d’entraînement, mais tout en les minimisant sur de nouvelles données aussi. Le travail d’un data scientiste consiste donc à analyser les données et sélectionner un modèle qui propose le meilleur compromis possible entre la précision vis à vis des données d’entraînement et la capacité de généralisation. La perfection est impossible à atteindre parce qu’il y a des fluctuations et du bruit dans les données. La droite est un exemple. Selon la distribution des données on peut avoir besoin d’un modèle différent, comme ici : Ici on a un modèle de type et il faut optimiser les paramètres a, b et c. Voilà pour les bases du machine learning. La particularité du deep learning, c’est qu’on ne va pas ajuster 2 ou 3 paramètres, mais des millions, voire des milliards de paramètres pour traiter des paquets de données en vrac. Mais le principe est identique. Le deep learning Les schémas que je présente dans cette section sont des captures d’une vidéo de la chaîne Machine Learnia sur le thème du Deep Learning sur Youtube. Je vous parlerai de cette chaîne dans la bibliographie. Le premier concept de neurone artificiel a été élaboré par deux mathématiciens, Warren McCulloch et Walter Pitts, en… 1943 ! Je vous avais prévenus que vos parents n’étaient pas encore nés. x) Rappelons le principe de fonctionnement d’un neurone, un vrai. En orange, vous avez les dendrites qui sont connectées aux terminaisons d’autres neurones. Elles sont excitées ou non selon que les neurones qui les précèdent le sont ou non. Si le niveau total d’excitation dépasse un certain seuil, le neurone est à son tour excité et transmet l’information à ses terminaisons (en vert) qui sont elles-mêmes connectées aux dendrites d’autres neurones. Et bien le neurone artificiel s’inspire du même principe : il fait la somme des signaux x qui peuvent être des données d’entrée ou le résultat d’autres neurones artificiels (on appelle cette étape agrégation), il vérifie que cette somme dépasse un certain seuil, ou pas et si c’est le cas, le résultat y vaut 1, sinon il vaut 0 (c’est l’étape d’activation). Notez que lors de l’agrégation, toutes les entrées n'ont pas la même influence. Celle-ci est définie par les paramètres w. On appelle cela les poids et c’est de ces poids que dépend la fonctionnalité du neurone. A l’époque nos 2 mathématiciens suggéraient déjà qu’on pouvait organiser les neurones artificiels en réseau. Mais il y a un hic ! Ils n’ont pas proposé d’algorithme permettant d’ajuster automatiquement les poids w, ô combien importants pour pouvoir définir la fonctionnalité qui ressortira du réseau de neurones, il fallait donc les définir à la mimine ! L'engouement pour l’IA est retombé comme un soufflet. Pfffft ! 💨 Il faut attendre 1957 avant que ne soit proposé le premier algorithme d’apprentissage automatique du neurone artificiel. L’idée est proposée par le psychologue Frank Rosenblatt et s’inspire toujours du principe de fonctionnement des vrais neurones. En gros, quand 2 neurones reliés entre eux sont excités en même temps, la connexion entre eux est renforcée. L’algorithme d’apprentissage s’appuie sur cette idée là. Dans la pratique, avant l’entraînement, on donne une valeur aléatoire à tous les poids w. Ensuite, on fait passer les entrées x dans le réseau de neurones qui calcule un résultat y. On compare ce résultat aux données d’entraînement y réelles. On ajuste les poids w de manière à ce qu’ils donnent un résultat plus proche des données réelles. Puis on recommence : on fait passer les entrées x dans le réseau de neurones qui calcule un résultat y. etc etc… Et ainsi de suite jusqu’à ce que la marge d’erreur ne bouge plus. Mais il y a encore un hic ! L’algorithme d’apprentissage proposé à l’époque ne pouvait fonctionner que sur une seule couche de neurones, et ne pouvait donc résoudre que des problèmes qui pouvaient être représentés par une droite. Alors ici, séparer 2 catégories avec une droite pas de problème. Mais là, par contre, on est comme des cons. Le soufflet retombe à nouveau. Pffft ! 💨 Il faut attendre 1986 pour que soit mis au point un algorithme d’apprentissage automatique multi-couche sur une idée proposée en 1974, la back-propagation. Je ne vais pas vous assommer avec des détails techniques, ce sont des math un peu bourrues. Retenez simplement qu’il s’agit d’un algorithme d’apprentissage qui parcourt le réseau de neurones à l’envers pour pouvoir ajuster les poids (d’où le “back”). Les étapes restent toujours les mêmes : Donner une valeur aléatoire à tous les poids. Faire passer les entrées x dans le réseau de neurones qui calcule un résultat y. Comparer ce résultat aux données d’entraînement y réelles. Ajuster les poids w de manière à ce qu’ils donnent un résultat plus proche des données réelles. Faire passer les entrées x dans le réseau de neurones qui calcule un résultat y. etc etc… Si on prend l’exemple d’un réseau de 3 neurones répartis sur 2 couches, on peut déjà résoudre des problèmes plus complexes. Bon, affichons notre petit réseau de neurones avec les opérations que fait chaque neurone. Le truc qu’il faut noter quand vous utilisez une IA, c’est qu’à ce moment-là, elle a fini son entraînement. Les poids w, ils ne bougent plus. Et donc, qu’est ce qu’il fait, là, le réseau de neurones, quand vous l’exécutez ? Il fait juste une grosse suite de multiplications et d’additions… Et c’est tout ! Vous pouvez voir ça comme un méga filtre Photoshop qui fait une opération différente à chaque pixel. J’ai d’ailleurs testé des IA qui ne faisaient pas mieux que des filtres Photoshop. ¬¬ C’est con, hein ? 😄 C’est fou ce qu’on peut faire avec de simples additions et multiplications. Comme vous pouvez le voir, le neurone artificiel ne fait que s’inspirer du principe de base des neurones de notre cerveau, il ne les simule pas. Pour cela il faudrait aller bien plus loin, simuler les réactions chimiques selon les types de neurotransmetteurs et bien d’autres choses que mes maigres connaissances en neurologie ne sauraient vous lister… Le bout de code du neurone artificiel est beaucoup trop simple pour prétendre simuler tout ça. Un réseau de neurones artificiels n’a donc pas grand chose de commun avec un cerveau bien réel. En fin de compte, dire que ce genre d’algorithme peut développer une conscience c’est un peu comme dire que le blender de votre cuisine peut en développer une aussi. Bon, alors du coup, si cet algo est aussi vieux et simple, pourquoi ce type d’IA n’explose que maintenant ? Et bien l’étonnante simplicité du deep learning est aussi son point faible. Outre le fait qu’elle présente, par principe, une limite à la perfection des résultats qu’elle peut produire, celle-ci ne peut fonctionner qu’avec une très grande quantité de données. Sans données pour l’entraîner, une IA créative ne peut générer qu’un bruit aléatoire. Pour pouvoir entraîner des IA de génération d’images, il a donc fallu attendre l’explosion des réseaux sociaux et des smartphones. Les données, on en avait pas assez avant. Second problème, plus un projet d’IA de ce type est ambitieux, plus il faut de neurones et de couches de neurones et plus il faut de données, et plus vous avez de neurones à entraîner et de données, plus l’entraînement est long, et donc, pour économiser du temps, il faut plus de puissance de calcul. La puissance de calcul, on en avait pas non plus assez avant pour avoir des temps d’entraînement raisonnables. Non, le deep learning, ce n’est pas du tout un algorithme éco responsable. x) Pour parler plus grassement, en fin de compte, un projet de Deep Learning, c’est un concours de bites : plus on veut faire un projet ambitieux, plus il faut de moyens (recruter des data scientistes pour récolter et traiter les données, louer des cartes graphiques sur le cloud ou disposer de son propre centre de calcul). Les limites de Midjourney, Dall-E & co Pour en terminer avec le fonctionnement des IA, voici une petite analyse plus poussée des limites des IA génératives actuelles. Pour commencer, voici des captures des galeries de Stable Diffusion et de Midjourney. J’ai aussi refait la même recherche que Spartan sur les démons pour Stable Diffusion. Y’a pas un truc qui vous fait tiquer tout de même ? Une IA c’est très fort pour recracher des choses qui ressemblent aux données d’entraînements, mais c’est beaucoup plus à la peine pour faire quelque chose de nouveau et dans ces galeries on ne vous affiche que les résultats les plus réussis, et dans les résultats les plus réussis, qu’est-ce qu’on trouve majoritairement ? Des portraits, des légions de portraits ! Les concepts de personnages ont tous à peu près le même posing et si on inclut les quelques décors on constate que tout est vu à hauteur d’yeux. Par contre, pour les keyframes du genre un personnage accroupi qui observe une fleur vu en plongée, un bonhomme qui surfe sur un skate volant vu en contre plongée ou 2 personnages qui font un câlin, on repassera. C’est pour ça que la tentative de dragon cyberpunk de Spartan s’est soldée par un bel échec critique : des images de dragons, on en trouve à la pelle, des images de dragons cyberpunk, vachement moins ! Alors, pourquoi cette limitation ? C’est simple, la nourriture des IA, les données, est aussi leur plus grand point faible. Le fait est que sur Internet vous trouverez plus de portraits vus à hauteur d’yeux que de keyframes de malades avec des cadrages improbables, et les personnages qui se tiennent debout dans des poses peu originales, c’est quand même plus facile à dessiner, donc il y en a aussi plus de que des poses complexes. Fatalement, les IA sont plus douées pour recracher ce type de contenu. C’est pas une surprise. Cependant, des photos et des dessins avec des personnages dans des positions variées, il y en a aussi sur Internet, alors pourquoi ces IA sont-elles paumées avec des demandes anatomiquement plus complexes ? C’est simple, elles s’entraînent sur la base de couples image/description et les descriptions des images ne sont absolument pas écrites par les data scientistes de l’équipe de développement, ils ne sont pas assez nombreux. Non, ils utilisent tout simplement des bots qui vont lire la description que l’auteur de chaque image a rédigé et les mots clé qui vont avec. Mettons, vous faites un beau keyframe avec une scène d’action ou une étude de modèle vivant. Lorsque vous publiez votre image sur le net, est-ce que vous vous amusez à rédiger une description complète du posing et du cadrage comme si vous vouliez qu’un aveugle puisse “visualiser” avec précision le contenu de votre image ? Non. Par conséquent, il y a un trou dans les données et l’IA se retrouve avec des images dont elle ne sait pas trop quoi faire et des possibilités qui ne lui sont pas accessibles. Ceci pose d’ailleurs un problème plus grave : les biais culturels et les stéréotypes. Sans traitement manuel, ce que les IA recrachent est à l’image du contenu qu’elles trouvent sur Internet. C’est d’ailleurs comme ça que les tentatives d’IA de conversation ont fini par tenir des propos racistes et que le portail francophone de Google a un jour affiché l’affiche du film Black Panther associée au titre La Planète des Singes en faisant passer ça pour une fiche d’Allo Ciné. Les activistes d’extrême droite savent très bien comment fonctionne le deep learning et comment entuber une IA de ce genre. C’est simple : il suffit de publier une association entre une image et un texte de façon à ce qu’elle devienne plus fréquente que l’association affiche/titre originale. Les développeurs de Craiyon font d’ailleurs une mise en garde à ce sujet dans leur FAQ. https://www.craiyon.com C’est écrit aussi sur le site de Stable Diffusion : https://stability.ai/blog/stable-diffusion-public-release En parlant de câlins, voici un test que j’ai fait avec Midjourney. Décryptage d’un petit exemple. Je lui ai demandé de me “dessiner” les pilotes de Formule 1 Max Verstappen et Lewis Hamilton qui se font un câlin. Voici le résultat après plusieurs itérations. Oui, c’est dégueulasse. Y’a des trucs malaisant. Désolée si vous étiez en train de manger. :’D Ici encore, le point faible, ce sont les données. Sur cette image, avec les copains, on soupçonne Midjourney d’avoir utilisé des morceaux d’un autre pilote pour recréer Max Verstappen : Charles Leclerc. Alors pourquoi ça fait ça ? Et bien, toujours pour la même raison. Midjourney et ses semblables utilisent des couples image/description pour s’entraîner et pour des pilotes de F1, nul doute qu’elles vont piocher les descriptions dans les articles de presse associés aux photos des pilotes ou les hashtags d'Instagram. Sauf que, ces IA, elles sont un peu con con quand même. Charles Leclerc et Max Verstappen sont deux pilotes qui se connaissent depuis tout petits à batailler en piste depuis le kart jusqu’à la F1, il est donc impossible de parler de l’un sans parler de l’autre. Par conséquent, les IA ont trouvé des photos de Charles Leclerc associées au nom de Max Verstappen. Et ne parlons même pas des tas de pécores sur Instagram qui ajoutent des tonnes de hashtag à la pertinence discutable sur leurs publications. ¬¬ Sans oublier les photos où les 2 pilotes sont présents. Résultat, les IA pondent des images de Max Verstappen en prenant des bouts de Charles Leclerc. Et patatra ! Ça donne ce genre de truc étrange… Avec une bouche à l’envers qui bave. 😂 Spartan pense que tous ces défauts seront gommés avec le temps. Voici ce qu’il faudrait faire pour y parvenir : Le fait est, que sur internet, la majorité des images que l’on trouve n’est pas associée à une description exacte de ce qu’elle affiche, et c’est la principale limite qui empêche d’aller plus loin. Pour contourner cette limite, il faudrait renoncer au crawling automatique du contenu du web et recruter des armées entières de gens qui rédigent une description exacte de chacune des milliards d’images utilisées pour entraîner les IA. … On parle de boîtes qui ne sont même pas fichues de recruter assez de monde pour cliquer sur un bouton “Supprimer” à la chaîne pour modérer les contenus haineux et qui sont même en train de licencier du monde en ce moment parce que leurs revenus sont en baisse (Coucou Meta ! ). ¬¬ Le nerf de la guerre, ce sont les données, leur quantité ET leur qualité. Faire avaler des pétaoctets de données à une IA ne sert à rien si on ne les nettoie pas et ne les traite pas avant. Et si elles sont trop chaotiques, il faut se taper le boulot à la main. Stratégie pour hacker les IA Ces IA donnent du pouvoir au camp des clients, mais en s'intéressant au fonctionnement du deep learning et aux cas de fiascos connus on peut se rendre compte que nous aussi, les artistes, avons un certain pouvoir. On peut pointer du doigt les activistes d’extrême droite pour leurs valeurs discutables mais on peut aussi les remercier de nous avoir montré la voie pour mettre du poil à gratter à ces entreprises qui utilisent nos images sans nous demander notre autorisation. Il suffit pour cela de s’attaquer au principal point faible des IA : en sabotant les données ! Voici plusieurs pistes pour ce faire. La première : comme expliqué plus tôt, il y a des trous dans les données qui font que les IA ne savent pas tout faire. Et bien on peut agrandir ces trous volontairement, en arrêtant de poster des portraits et des poses basiques, en nous efforçant de dessiner davantage de poses et de cadrages complexes (c’est pas un mal, ça nous fera progresser 😛 ) et lorsque nous postons nos images, ne surtout pas rédiger de description précise de leur contenu et réduire le nombre de hashtags aux seuls 2 ou 3 les plus pertinents. Ainsi, les IA n’ont aucune chance d’apprendre correctement l’anatomie et la perspective. La seconde : injecter de la merde. Les gens qui mettent des tonnes de hashtags à la pertinence discutable sur Instagram, finalement ils sont pas si cons. Petit exemple : Imaginons que vous dessiniez un Sangoku, seul, en train d’exécuter un Kaméhaméha. Lorsque vous postez l’image sur le net, premièrement, ne décrivez toujours pas la pose et le cadrage exact. Par contre, vous pouvez vous amuser à raconter ce qu’il se passe hors champ, des choses qu’on ne voit pas dans l’image, sans préciser que c’est hors champ (le visiteur humain le comprendra tout seul). Par exemple, que Sangoku va jeter son Kaméhaméha sur Végéta, ou Freezer, ou Cell… Et dans les hashtag ajouter des personnages qui n’apparaissent pas dans l’image, genre #vegeta #cell #freeza #gohan… Ou d’autres hashtags avec un lien éloigné. Comme ça, les IA seront dans la confusion. On peut même pousser le vice en associant ces hashtags à des contenus NSFW. 8D L’idée c’est de rendre le traitement des données impossible de façon automatisée et trop coûteux à la main. Si on s’y met massivement, il y a moyen de geler la progression de ces IA. A titre individuel, il n’y a pas grand chose à faire, juste être un peu attentif à la manière dont on décrit nos images quand on les poste sur Internet, voire être carrément flemmard et en écrire le moins possible. x) Plusieurs IA basées sur le contenu du web ont été sabotées de cette manière par le passé, parfois jusqu’au retrait du marché, donc il n’y a pas de raison qu’on ne puisse pas recommencer. La chose importante à garder en tête c’est que ce qui coûte le plus cher dans le développement d’une IA c’est la récolte, le nettoyage et le traitement des données et on peut rendre ça déraisonnablement cher. Alors en effet, je suis très sarcastique à propos des IA similaires à Midjourney. D’une part je suis assez fatiguée des discours binaires type “On va tous mourir” ou “C’est fantastique ! C’est la révolution !” qui survendent ces IA. D’autres part, j’en ai testées un certain nombre et je les ai trouvées tout à fait inexploitables pour mes projets et mes workflows. Je ne dis pas que ça ne servira à personne, mais ça ne colle pas à mes besoins spécifiques, voilà tout. Pour autant, je ne crache pas sur la technologie du Deep Learning en elle-même. Au contraire, je la trouve super intéressante, mais je vois sa place davantage pour des tâches exécutives spécialisées que pour des tâches créatives généralistes. Bon, maintenant qu’on a vu comment ça fonctionne, abordons la partie fun de l’article. Faire une IA soi-même ! \o/
    1 point
×
×
  • Créer...