Aller au contenu

Classement

Contenu populaire

Affichage du contenu avec la meilleure réputation le 11/21/2022 dans toutes les zones

  1. Pas évident cette compo ! J’ai un peu transpirée du stylet ce week-end pour que ça ressemble à quelque chose 😉 Voici l’idée du pitch : Dans toute l’histoire de Leonardia, on n’a jamais vu un taux d’absentéisme aussi faible que celui des cours de la professeur Vilador. La direction espère que les bulletins des élèves seront à la hauteur de leur assiduité…
    10 points
  2. Bonjour à tous, c'est moi, Chou ! Alors, je me suis lancé sur le pandérin pour le challenge 🐼 Cà fait un peu plus d'une semaine que je cherche un design qui me satisfasse pour mon petit panda. Pour coller au descriptif, j'avais imaginé un pandérin aussi mignon que possible avec des attributs qui rappellent la forêt et la magie étant donné ses activités. Je suis donc directement parti sur une grosse marmite qu'il transporterait avec lui à la seule force de ses bras (rappelant Obélix et son menhir). J'avais pensé également à un couvre-chef confectionné avec un bout de bois ramassé dans la forêt rappelant celui d'un magicien. Pour aller plus loin avec la marmite, j'ai équipé notre ami d'une grosse cuillère en bois qu'il se sert pour effectuer ses préparations et comme bâton de marche. J'ai donc dessiné 6 pandérins pour mes recherches et je pense avoir trouvé mon pandérin qui serait le 6e du coup. Sur ce, je vais commencer à faire des recherches pour l'illustration finale. Des bisous !🐼
    6 points
  3. Petite avancée sur le painting de Bayne, proprement dit... Modification de pose, ajout d'éléments. On réfléchit à la lumière... Bientôt la phase de détails relax !
    6 points
  4. On avance doucement mais surement ^^
    5 points
  5. Merci à tous pour vos gentils retours ! 🙂 Boooon... Très grosse après-midi et grosse remise en question du tout au tout concernant ma création. Les bons conseils de @Serialm'ont amenée à revoir totalement la structure de l'image pour la rendre plus "vivante", mais aussi me faciliter un peu la vie. De cette manière, je n'aurais pas à gérer la perspective de tous les objets que je comptais placer par-ci par-là, sans compter la lumière et tout le reste (pour rappel, j'en suis qu'au chapitre 2 du programme 1...). Du coup, pour rester raisonnable sur ce point, on m'a donc proposé un tout nouveau format 🙂 . Serial m'a proposé de partir dans l'idée de ce splash art du personnage de Twisted Fate dans League of Legends, que je vous partage ci-dessous : Et de rajouter alors mon fantôme 🙂 . Je perds l'idée du câlin dans le dos, mais je pense effectivement que la compo est plus intéressante comme ça. Je remercie sincèrement tous ceux et celles qui m'ont donné leur préférence au niveau des thumbnails, mais je pense que changer d'avis ici est pour le mieux ! 🙂 Voici ce que ça a donné : Pour le moment, j'ai ajouté pêle-mêle tous les éléments qui doivent être présents sur le personnage selon le brief et l'histoire que je veux raconter, mais il faudra que je les travaille un à un en détail. Sinon, quelques ajouts : Je garde le cadre sur le bureau pour raconter mon histoire, à voir s'il reste là ou si je le bouge quelque part. De l'autre côté, un crâne pour très très subtilement évoquer la mort. (Oui oui, c'est subtil. 😁) Dans sa sacoche en cuir, que j'ai interprété comme étant une besace pour les herbes, je compte mettre en évidence une fleur d'asphodèle et une branche d'armoise. Peut-être que les fans d'Harry Potter l'ont déjà 🙂 : l'asphodèle représente le coeur brisé, et l'armoise, la fidélité conjugale. (Du symboliiiisme ! 🙂 ) Je me demande si sa barbe est suffisamment longue pour correspondre au brief, peut-être que je devrais l'allonger un peu. Idem pour ses épaules, elles mériteraient d'être un peu plus larges. J'vais le faire aller à la salle, moi. 😛 Comme je l'ai dit dans le message plus haut, il me faut encore travailler la pipe pour lui donner un design unique et intéressant. Pour l'instant elle est très simple, mais je me suis donnée par mal de marge pour m'en occuper. Le côté "accrocher des fioles à ses bretelles" m'embête un peu. Faut que je trouve un moyen de le faire. Comme prévu, c'est le tatouage largement inspiré de Scar dans Fullmetal Alchemist qu'il arbore sur le bras. 🙂 Dans l'idéal, il faudra que je bosse les valeurs pour mettre clairement en avant son visage d'abord, puis, que le regard du spectateur soit guidé par la fumée qui s'échappe pour tomber sur la forme fantomatique. Je ne sais pas si ça marche XD on verra bien. (Et j'ai pas fait le chapitre sur les valeurs, ça promet XD) Bon, bon... Je crois que j'ai fait le tour, et j'ai pas mal de travail qui m'attend encore. Merci à tous ceux qui sont passés de m'avoir lue jusqu'ici et j'espère sincèrement que le challenge se passe bien pour vous ! 🙂 Bonne nuit tout le monde !
    5 points
  6. Yo les peintres ! Cette semaine c’est speed painting ! Vous connaissez la règle : vous avez une heure max pour réaliser un digital painting sur un des 3 thèmes donnés plus bas. Vous pouvez mixer les thèmes ensemble si vous voulez. Pour cette semaine, voici les thèmes pour défouler vos stylets : Sérénité Succube Sortilège Quelques précisions : Durée d‘une heure maximum (essayez de jouer le jeu, mettez un chrono !) L'exercice dure deux semaines. Possibilité de mélanger les trois thèmes, ou de faire les trois séparément, ou de choisir un seul thème… Pas d’utilisation de photo (ni photomanipulation ni photobashing), mais vous pouvez utiliser des références photo pour vous inspirer Les thèmes peuvent être représentés de façon littérale ou métaphorique, à votre guise Laissez parler votre imagination, soignez la composition autant que possible, et montrez-nous votre propre univers ! N'oubliez pas de commenter les travaux précédents 🙂 Pensez à mettre le temps que vous avez mis en même temps que votre image, et à poster votre résultat en une seule image si vous souhaitez être sur l’image récapitulative en fin de semaine ! Bonnes semaines à tous, et faites chauffer vos tablettes !
    4 points
  7. Bonjour, bonjour! J'espère que vous allez tous bien! 🌟 Ca fait un moment que je suis inscrit ici et que je lurk pour tout dire, et je me décide enfin à poster, parce que je pense qu'il est temps que partager un peu. Pour ma petite histoire, comme beaucoup de gens, j'ai dessiné pendant longtemps et j'ai subitement arrêté vers 18 ans en arrivant dans la vie active. J'ai aujourd'hui presque 30 ans (à l'aide!!) et je m'y suis remis il y a à peu près un an, mais j'ai beaucoup de mal à être régulière. Je compte m'offrir le programme indispensable, car j'aimerais solidifier les modestes bases et (surtout) l'anatomie de mon style trèèès flat et pouvoir créer des illustrations du feu de Dieu (j'avoue, des fois il me prend à rêver de pouvoir produire du contenu type splashart de riot game ou illustration Magic). Pour commencer, je vous partage quelques travaux pour certains inachevés et dont, en bon artiste, je ne suis pas suffisamment fière, mais j'imagine qu'il faut bien commencer à sortir de sa zone de confort un jour... Le dernier en gris est une copie d'une image que j'ai trouvé sur pinterest (je n'ai plus la ref 😞) pour m'entrainer aux ombrages (oui, j'ai commencé à suivre les premiers chapitres des cours proposés ici hihi). Impatiente d'apprendre à vous connaître, cette communauté a l'air pleine de bons cœurs 💕 Que votre journée soit bonne!!
    4 points
  8. Hello ça fait un moment que j'ai pas up le sujet, j'ai eu un petit coup de mou x) En tout cas voilà l'avancée actuelle sur photoshop, reste encore un peu de taf sur le grimoire, la robe et surtout la tête. Plus sûrement quelques correcs de colo/valeurs.
    4 points
  9. j'ai revu pas mal de choses sur ma compo en niveaux de gris (contrastes, lumières, dynamique...) et j'ai enfin placé les autres personnages. Qu'en pensez-vous ?
    4 points
  10. hop, ptite mise à jour, avec test d'effet magique sur la baton (pas encore le rendu souhaité)
    4 points
  11. Une autre petite image pour saisir la différence de taille avec Bayne : @ombregem Ouais normalement, avec les ombres projetées des outils sur le perso, on est censé capter qu'ils lévitent autour de lui, mais c'est peut être raté ^^', je vais plus touché à ce DP j'ai déjà passé trop de temps dessus, je ferais en sorte que ça soit plus convainquant sur l'illustration finale 🙂
    3 points
  12. je bosse sur la keyframe dodgeball, tournoi de fin d'année, pour l'univers magique de Léonardia. Voici 2 vignettes d'études.
    3 points
  13. Bon au final j’ai poussé l’illu… Faut que je change sa coupe pour coller au brief, bijou et boule d’énergie🙈
    3 points
  14. Salut @ombregemet @tonysonictheone! Alors déjà un grand merci pour le temps passé à me faire ces retours détaillés et les PO. Effectivement les vêtements gomment les défauts mais j’ai quand même voulu rectifier ce qui me semblait juste, car c’est la seule façon d’apprendre! (La plupart des points quoi haha). Ps je garde les genoux simplifiés avec simplement l’indication des rotules. Vos remarques m’ont permis de me focaliser sur la pose en T, de l’améliorer aussi. C’est encore un croquis, je fais des tests pour les vêtements/couleur. Quand je serai fixé je ferais tout en valeur de gris pour vraiment démarrer les choses sérieuses 😁 Pour le bijou je ne sais pas encore sur quoi partir, pareil pour la boule d’énergie noire, je tâte! Concernant l’aspect déformé par la gravité… je pensais lui avoir déjà fait une tête un peu inhumainement carré tout comme le corps bien trop musclé. Mais apparemment je devrais forcer encore le trait 🤖 Encore merci, vos retours m’ont bien aidé !
    3 points
  15. Voici un début de compo pour l'illu 1, je compte en faire deux en tout toujours sur Chavador Celle là est plutôt simple (tellement simple que je l'ai déjà vu dans un autre wip 🥲) mais ça va me servir d'entrainement pour la deuxième
    3 points
  16. Petite avancée du soir. Je vais commencer à réfléchir au décor et à l'histoire que j'aimerais raconter dans cette scène avec Vilador.
    3 points
  17. Bonjour, Je commence ce challenge sans être certaine de pouvoir aller jusqu'au bout (peu de temps à y consacrer). Je me tourne vers l'université de Grondark et son harbre. Je vais essayer de réfléchir aux deux sujets comme un tout. Voici le première recherche sur l'harbre
    2 points
  18. Merci @Chaz ! Bon tip qui peut servir à mon copain @Omni, vu qu’il n’utilise que Photoshop. Et encore, il est sur ma licence (2 machines en simultané). Mais moi, il me faut le reste des softs car je suis graphiste free-lance et j’ai besoin d’Indesign et d’Illustrator a minima en plus de Photoshop. Too bad for me 🤷🏽‍♀️🤷🏽‍♀️🤷🏽‍♀️
    2 points
  19. Je suis complètement d’accord avec toi… Les 30€ par mois on les sent passer (et encore je n’ai pas le plein tarif pour une raison qui m’échappe et je déclare la TVA donc c’est encore 5€ de moins !!!). Le principe d’achat unique devrait se reprendre un peu plus dans ce milieu. Faites de la concurrence tarifaires les gars !🤣 Par contre je ne connais pas du tout Affinity ni ce que ça vaut. Ceci dit beaucoup en parlent. Est-ce que ça peut battre les 10€ de Procreate ? @tonysonictheonequ’est-ce qui change en réalité avec les autres ? Si tu n’accroches pas, il doit y avoir une explication logique 😊
    2 points
  20. et voilà pour les modifs ! je pense que je ne changerai plus rien. ça me convient comme ça. maintenant, j'attaque la couleur !
    2 points
  21. Merci @Lionel Art ! Je vous présente mes deux premiers croquis de l'exercice 5 : - La peluche : j'ai bien compris les formes générales de l'objet et où placer mes coutures. Mise à part la patte droite (au fond) du "dragon", qui donne l'impression qu'il a une patte pliée (on a l'impression qu'il est assis) plutôt qu'une patte droite (debout ; sûrement due au placement de ma couture). A la place des hachures, j'ai opté pour une mise en couleur rapide pour donner plus d'infos à mon croquis (le style hachuré n'est pas ce que je préfère, mais promis, je vais quand même essayer cette technique sur le crâne, histoire de comprendre où placer mes ombres). - Le Taj Mahal : l'avantage avec les monuments ou espaces intérieurs, c'est qu'ils sont généralement symétriques, ils suivent une perspective bien distincte et sont construits avec des lignes droites. J'ai donc travaillé la 3ème étape de mon croquis avec les techniques apprises dans la partie 1 du chapitre 2 sur les lines "parfaites". J'ai apporté plus de détails à ce croquis (briques, fenêtres, arabesques)... Je n'en suis pas mécontente malgré quelques erreurs notamment au niveau de certaines fenêtres ou de la colorimétrie (trop saturée). Mais il me semble que cette notion sera vue plus tard dans les chapitres du programme indispensable. Donc je suis excusée ?!? Lol
    2 points
  22. Merci @Chaz et @Spartan de DPSchool, vos messages sont très fortifiant et encourageant, ça donne envie de participer aux forums et à des challenges. Je suis pressé de participer à ces prochains cours. Encore merci ☺️
    2 points
  23. Hello 🙂 Super boulot ! Les couleurs et le style fonctionnent super bien, il y a vraiment un côté chaleureux et on dirait l'image tout droit sortie d'un livre de contes. Par contre, le pouvoir attire trop l'oeil avec sa couleur trop singulière par rapport au reste de l'image, ça casse l'unité. Et la plante feuillue au milieu des arbres fait trop détaillée par rapport à ton fond qui, je trouve, marche grave bien avec la perspective atmosphérique et son aspect simple et texturé. Bonne continuation en tout cas 😉
    2 points
  24. Haha les autres commentaires de tes camarades élèves en disent déjà longs 😉 Tu devrais être fier de poster, c'est déjà très bien et ça promet une belle évolution ici aussi. J'espère que les cours te plairont. Et en effet des cours sur Procreate (pour maîtriser le programme et le "workflow") vont arriver dans même pas 2 semaines si tout va bien ! De quoi compléter/se préparer avant le Programme. A bientôt !
    2 points
  25. Hello ! Ca avance tranquillement, je suis soulagé d'y voir enfin un peu claire, d'avoir posé les éléments et que les choses soient cohérentes dans ma tête. J'ai usé de photobashing, il faut encore que j'attenue certaines textures. Vous en pensez quoi ? Elle est palpable cette énergie de gravité dans cette salle ? Benji
    2 points
  26. Olala mais ce challenge de malade encore ; l'univers, les descriptions, les personnages... tout est si cool 👌 (@Spartan de DPSchool t'as raté ta vocation, faut écrire des livres ou faire des films avec toutes ces idées ahah 👀) bravo pour ce boulot encore et j'ai bien hâte de découvrir les participations 🤗
    2 points
  27. Coucou à,tous petit avancement du soir. Je galère plus que avec kranos!!! 🥲
    2 points
  28. Coucou @iselderblaick! Je vais être parfaitement transparente : j'ai complètement crush sur ton dessin. Genre, vraiment. Son expression, l'anatomie que tu as plutôt bien respectée... Franchement, tu peux être fier-e de ton niveau actuel ! Et dès que tu attaqueras les cours et que tu approfondiras toutes ces notions... Ca va être une tuerie ! Du coup, un grand bravo à toi pour ta création, et félicitations d'avoir vaincu cette peur de t'exposer aux regards ! Et comme l'a dit @Olina._arista, il n'y a que de la bienveillance parmi nous, alors sens-toi libre de poster tes créations ! 🙂 A bientôt !
    2 points
  29. Un petit détail du fond, Léonardia étant réputée pour son art de transformation , j’ai rajouté une bestiole peu engageante pour garder le côté un peu stressant de l’image…
    2 points
  30. Salut à tous, Comme expliqué ci-dessus, je me casse un peu la tête sur mon background. J'ai fait quelques test rapidos histoire de me fixer. La version A ne me plait plus trop. Entre B et C y'a peu de changement. C'est la C que je préfère. Des avis ?
    2 points
  31. @tonysonictheone Ouai carrément ça me déprime 🥲 @smashod1Hyper stylé, mais je trouve personnellement que le personnage ne ressort pas assez, il a tendance à un peu se fondre dans la continuité de l'écorce de l'arbre qui a une couleur et valeur très similaire. On distingue aussi très peu son bras gauche, les valeurs sont je pense très proches de l'environnement juste derrière. Peut-être un travail à faire au niveau des valeurs pour rajouter de la profondeur 🙂 mais c'est déjà extrêmement classe, je n'ai pas ce niveau ....
    2 points
  32. Hello tout le onde ! 🙂 Voilà mes études sur le visage et les cheveux de Svitkan. Je pense avoir trouvé mon bonheur avec la dernière, les cheveux bouclés créent plus de contraste avec le visage angulaire donc je vais poursuivre dans cette direction. Ce week-end, j'attaque enfin le costume, ça va être sympa ! Merci d'avance pour les critiques 😉
    2 points
  33. @Oddelash : Merci, ah oué bonne idée, je veux éviter de surcharger l'illus mais je retiens l'idée ça pourrait aller dans le sens de le rendre plus "magicien" que "jardinier" @sweetkala : Je l'ai viré le bouleau, il genait le 2eme focus sur la fleur. La mise à jour de l'aprem, j'arrête pour aujourd'hui, besoin de faire une pause
    2 points
  34. J'ai voulu partir sur un côté femme fatale, le méchant se devant d'être séducteur pour corrompre. Du coup il y a des inspirations médiévales, de la Renaissance, des pin up des années 40-50, des sorcières diverses et même quelques vampires. Le but ça va être de donner un côté un peu intemporelle pour que le monde magique soit commun mais se détache comme même de la réalité. Pour l'aspect, j'hésite entre quelque chose de plus réaliste peint ou bien dans un style bande-dessinée/comics/manga, peut-être un mélange des deux 😉 Et donc pour la première étude sur le visage et les cheveux, voilà ! Hésitez pas à me dire ce que vous en pensez ! Et merci d'avance pour le temps que vous prendrez 😉
    2 points
  35. Voici les premières recherches de costume et schéma de couleurs pour Vilador.
    2 points
  36. Hello tout le monde! Bon je vais poster mes croquis de recherche pour le premier perso Tertram, que je souhaite faire pour le challenge. Petit ajout au challenge je vais tout faire sur Procreate sur IPad 🤖 Donc premiers croquis… je dois encore inclure le médaillon et lui raser la tête sur les côtés, a je recherche encore l’inspi!
    1 point
  37. Salutation et bienvenue à toi dans l'aventure ! Je t'invite à te présenter aux autres par ici, c'est toujours un plus pour faire connaissance et que l'ont se rendent compte de tes motivaitons. Pour ton illustration c'est bien pour une reprise, tu ne t'es pas fait avoir par un fond qui domine le personnage mais il faudra apprendre à travailler avec des formes moins dure pour un meilleur relief et rendu, notamment pour les lumières/ombres et certaines formes comme les flammes . Reste concentré sur les cours et tu prograsseras rapidement !
    1 point
  38. Bonsoir bonsoir ! 🙂 Alors pas de travail directement sur Bayne aujourd'hui, mais quelques recherches approfondies pour trouver une pipe originale qui colle avec le perso. Je vous partage déjà mes réfs : Du coup, j'ai passé l'après-midi à juste laisser le stylet aller en zieutant un peu mes petites réfs pour voir ce qui pouvait en sortir. Je vous partage ça : Je suis pas encore totalement emballée par un design en particulier, mais peut-être des mélanges pourraient être intéressants. A ceux que j'ai présenté la planche, ils m'ont indiqué une préférence pour le manche de la 5. On a aussi mentionné la 6 et la 4. Je vais peut-être me concentrer sur le manche de la 5 en le sublimant un peu avec des éléments de la 6 et de la 4... à voir. Mais ça sera pour demain, probablement 🙂 . Si vous avez un avis, je serais contente de l'entendre ! A demain pour la suite (et fin j'espère haha), j'espère quand même m'attaquer au principal intéressé avant la fin de la semaine pour refaire sa carrure et son visage, parce que c'est clairement l'étape des valeurs et de la colorisation qui va être le plus compliqué... Merci de vous être arrêtés ici ! 🥰
    1 point
  39. coucou @rastathopoulos, pour la coiffure, j'aime bien la v1, je trouver la forme vraiment intéressante. et pour les tenues, la v1 aussi. ça promet une belle image bien stylisée 👍 hâte de voir la suite
    1 point
  40. Salut @shinukai, bienvenue sur le forum ! J'ai trouvé ton histoire très touchante, je m'y retrouve un peu dedans. Moi aussi j'ai eu droit au fameux "mais dessinatrice c'est pas un métier", et comme toi, la passion a fini par me rattraper 🙂 . Je vous souhaite tout plein de succès à toi et à ton chéri pour ce beau projet à deux, et je suis certaine que tu trouveras ici toutes les ressources nécessaires pour réussir à passer le cap des environnements (ma bête noire aussi, comme quoi... 🙂 ). J'aime beaucoup tes créations et j'ai hâte de voir comment tu vas les sublimer au fil des semaines ici ! Encore bienvenue et au plus de te recroiser 🙂 !
    1 point
  41. salut tout le monde après un petit temps de pause du à la rentrée et le taff me voici de retour sur la formation motivé comme jamais j'ai réalisé plusieurs exercices j'ai vraiment pris mon temps sur chacun j'ai essayé de pousser le résultat même si ce n'était pas demandé et de bien décomposer les formes dans chaque image. j'attend vos retours avec impatience. Pour le joker de Joaquim Phoenix j'ai essayé d'utiliser différent stylo noir, je me suis pas mal concentré sur la qualité de la line j'ai noté à la fin que j'avais quelques problème de proportions mais c'était trop tard
    1 point
  42. Coucou, nouvelle soirée nouvelle version, j'arrive au stade où je tourne en rond, je fais et défais des trucs à droite à gauche. Je trouve cette nouvelle version du dragon relativement propre, je vais sans doute garder ça pour le moment. Je me suis rendu compte que j'avais oublié les lunettes, grave erreur. Voilà aussi un premier jet de couleur, moyennement satisfaisant à mon goût, à voir si j'arrive à qqchose à de plus concluant...
    1 point
  43. J'ai enchainé sur quelques pages de recherches avant de reprendre ma compo et me mettre dans le dur : - La plante magique que chavador fait apparaitre dans la scène. Je suis parti sur une fleur bleu papillon (c'est fou ce que fait la nature 🙂 ) et je l'ai transformé en fleur rouge du dragon. j'suis pas encore tout à fait fixer, mais j'aime bien l'idée. - Une planche rapidos pour avoir la tronche de la petite troupe d'animaux qui l'accompagnent.
    1 point
  44. Coucou à tous, voilà, petite progression en colorisation, c’est très très loin d’être fini , je suis justement ici pour apprendre, donc là, j’ai encore du mal avec la peau et les matières et la lumière à ajouter. Et le fond, je ne sais pas quelle couleur je devrais utiliser pour l’instant… je suis ouvert à des conseils colorisation car je suis à la base ici pour apprendre ça lol et là je me lance dans la colorisation et dans ce challenge sans avoir bien avancé dans les cours …
    1 point
  45. merci ! problèmes corrigés sur Sviktan.
    1 point
  46. Comment ça marche ? Pour commencer, faisons une petite précision sur le type d’IA qui fait beaucoup parler de lui de nos jours, il s’agit du deep learning. L’intelligence artificielle est en réalité un champ d’étude très vaste regroupant des sous domaines qui ont eux-même des sous domaines. Le machine learning est un sous domaine de l’intelligence artificielle et le deep learning est lui-même un sous domaine du machine learning. Je vous explique le principe de fonctionnement sans vous assommer avec les détails techniques. Vous verrez que finalement, qualifier ces algorithmes d’”intelligence” artificielle est un putain d’abus de langage. Le principe de base du machine learning Bon, vous allez être un peu surpris mais… Le machine learning, vous en avez tous fait à l’école sur papier. Si si ! Je vais vous montrer. Vous avez sûrement déjà vu ce genre de graphique et on vous sûrement déjà demandé de tracer à la règle une droite qui passe le plus près possible de tout ces points. Pour l’anecdote je me souviens l’avoir fait en cours de physique au collège. La prof nous avait donné un graphique avec des mesures de la température d’ébullition de l’eau en fonction de l’altitude. Elle nous a demandé de tracer la droite la plus proche possible de tous les points, comme ceci : C’est une fonction affine de type y = ax + b. Ensuite, elle nous a demandé de placer 2 points dessus et de mesurer leur position pour calculer les paramètres a et b de la fonction affine et pour finir, à l’aide de ces paramètres calculés, elle nous a demandé de prédire la température d’ébullition de l’eau pour une altitude donnée. Et bien voilà, le machine learning, ce n’est rien d’autre que ça : utiliser les données récoltées pour calculer les paramètres a et b optimaux pour construire un modèle de type y = ax + b qui soit capable de prédire la valeur de y par rapport à une donnée x avec la marge d’erreur la plus petite possible. C’est con, hein ? 😄 Comme vous pouvez le voir, la droite n’est qu’une approximation et il est impossible de la faire passer par tous les points. Tout ce qu’on peut faire c’est essayer d’avoir la marge d’erreur moyenne la plus petite possible, mais elle ne pourra jamais tomber à zéro. Alors on pourrait imaginer un modèle beaucoup plus compliqué capable de passer par absolument tous les points, comme ceci : Modèle de type Mais vous voyez bien que ce modèle est complètement absurde par rapport à la réalité de la physique et que si vous ajoutez une nouvelle mesure dans les données, comme ceci : Et bien la marge d’erreur est même encore plus grande que si vous vous étiez contenté d’une simple droite. C’est le problème de la généralisation du modèle. Un bon modèle doit être capable de minimiser les erreurs sur les données d’entraînement, mais tout en les minimisant sur de nouvelles données aussi. Le travail d’un data scientiste consiste donc à analyser les données et sélectionner un modèle qui propose le meilleur compromis possible entre la précision vis à vis des données d’entraînement et la capacité de généralisation. La perfection est impossible à atteindre parce qu’il y a des fluctuations et du bruit dans les données. La droite est un exemple. Selon la distribution des données on peut avoir besoin d’un modèle différent, comme ici : Ici on a un modèle de type et il faut optimiser les paramètres a, b et c. Voilà pour les bases du machine learning. La particularité du deep learning, c’est qu’on ne va pas ajuster 2 ou 3 paramètres, mais des millions, voire des milliards de paramètres pour traiter des paquets de données en vrac. Mais le principe est identique. Le deep learning Les schémas que je présente dans cette section sont des captures d’une vidéo de la chaîne Machine Learnia sur le thème du Deep Learning sur Youtube. Je vous parlerai de cette chaîne dans la bibliographie. Le premier concept de neurone artificiel a été élaboré par deux mathématiciens, Warren McCulloch et Walter Pitts, en… 1943 ! Je vous avais prévenus que vos parents n’étaient pas encore nés. x) Rappelons le principe de fonctionnement d’un neurone, un vrai. En orange, vous avez les dendrites qui sont connectées aux terminaisons d’autres neurones. Elles sont excitées ou non selon que les neurones qui les précèdent le sont ou non. Si le niveau total d’excitation dépasse un certain seuil, le neurone est à son tour excité et transmet l’information à ses terminaisons (en vert) qui sont elles-mêmes connectées aux dendrites d’autres neurones. Et bien le neurone artificiel s’inspire du même principe : il fait la somme des signaux x qui peuvent être des données d’entrée ou le résultat d’autres neurones artificiels (on appelle cette étape agrégation), il vérifie que cette somme dépasse un certain seuil, ou pas et si c’est le cas, le résultat y vaut 1, sinon il vaut 0 (c’est l’étape d’activation). Notez que lors de l’agrégation, toutes les entrées n'ont pas la même influence. Celle-ci est définie par les paramètres w. On appelle cela les poids et c’est de ces poids que dépend la fonctionnalité du neurone. A l’époque nos 2 mathématiciens suggéraient déjà qu’on pouvait organiser les neurones artificiels en réseau. Mais il y a un hic ! Ils n’ont pas proposé d’algorithme permettant d’ajuster automatiquement les poids w, ô combien importants pour pouvoir définir la fonctionnalité qui ressortira du réseau de neurones, il fallait donc les définir à la mimine ! L'engouement pour l’IA est retombé comme un soufflet. Pfffft ! 💨 Il faut attendre 1957 avant que ne soit proposé le premier algorithme d’apprentissage automatique du neurone artificiel. L’idée est proposée par le psychologue Frank Rosenblatt et s’inspire toujours du principe de fonctionnement des vrais neurones. En gros, quand 2 neurones reliés entre eux sont excités en même temps, la connexion entre eux est renforcée. L’algorithme d’apprentissage s’appuie sur cette idée là. Dans la pratique, avant l’entraînement, on donne une valeur aléatoire à tous les poids w. Ensuite, on fait passer les entrées x dans le réseau de neurones qui calcule un résultat y. On compare ce résultat aux données d’entraînement y réelles. On ajuste les poids w de manière à ce qu’ils donnent un résultat plus proche des données réelles. Puis on recommence : on fait passer les entrées x dans le réseau de neurones qui calcule un résultat y. etc etc… Et ainsi de suite jusqu’à ce que la marge d’erreur ne bouge plus. Mais il y a encore un hic ! L’algorithme d’apprentissage proposé à l’époque ne pouvait fonctionner que sur une seule couche de neurones, et ne pouvait donc résoudre que des problèmes qui pouvaient être représentés par une droite. Alors ici, séparer 2 catégories avec une droite pas de problème. Mais là, par contre, on est comme des cons. Le soufflet retombe à nouveau. Pffft ! 💨 Il faut attendre 1986 pour que soit mis au point un algorithme d’apprentissage automatique multi-couche sur une idée proposée en 1974, la back-propagation. Je ne vais pas vous assommer avec des détails techniques, ce sont des math un peu bourrues. Retenez simplement qu’il s’agit d’un algorithme d’apprentissage qui parcourt le réseau de neurones à l’envers pour pouvoir ajuster les poids (d’où le “back”). Les étapes restent toujours les mêmes : Donner une valeur aléatoire à tous les poids. Faire passer les entrées x dans le réseau de neurones qui calcule un résultat y. Comparer ce résultat aux données d’entraînement y réelles. Ajuster les poids w de manière à ce qu’ils donnent un résultat plus proche des données réelles. Faire passer les entrées x dans le réseau de neurones qui calcule un résultat y. etc etc… Si on prend l’exemple d’un réseau de 3 neurones répartis sur 2 couches, on peut déjà résoudre des problèmes plus complexes. Bon, affichons notre petit réseau de neurones avec les opérations que fait chaque neurone. Le truc qu’il faut noter quand vous utilisez une IA, c’est qu’à ce moment-là, elle a fini son entraînement. Les poids w, ils ne bougent plus. Et donc, qu’est ce qu’il fait, là, le réseau de neurones, quand vous l’exécutez ? Il fait juste une grosse suite de multiplications et d’additions… Et c’est tout ! Vous pouvez voir ça comme un méga filtre Photoshop qui fait une opération différente à chaque pixel. J’ai d’ailleurs testé des IA qui ne faisaient pas mieux que des filtres Photoshop. ¬¬ C’est con, hein ? 😄 C’est fou ce qu’on peut faire avec de simples additions et multiplications. Comme vous pouvez le voir, le neurone artificiel ne fait que s’inspirer du principe de base des neurones de notre cerveau, il ne les simule pas. Pour cela il faudrait aller bien plus loin, simuler les réactions chimiques selon les types de neurotransmetteurs et bien d’autres choses que mes maigres connaissances en neurologie ne sauraient vous lister… Le bout de code du neurone artificiel est beaucoup trop simple pour prétendre simuler tout ça. Un réseau de neurones artificiels n’a donc pas grand chose de commun avec un cerveau bien réel. En fin de compte, dire que ce genre d’algorithme peut développer une conscience c’est un peu comme dire que le blender de votre cuisine peut en développer une aussi. Bon, alors du coup, si cet algo est aussi vieux et simple, pourquoi ce type d’IA n’explose que maintenant ? Et bien l’étonnante simplicité du deep learning est aussi son point faible. Outre le fait qu’elle présente, par principe, une limite à la perfection des résultats qu’elle peut produire, celle-ci ne peut fonctionner qu’avec une très grande quantité de données. Sans données pour l’entraîner, une IA créative ne peut générer qu’un bruit aléatoire. Pour pouvoir entraîner des IA de génération d’images, il a donc fallu attendre l’explosion des réseaux sociaux et des smartphones. Les données, on en avait pas assez avant. Second problème, plus un projet d’IA de ce type est ambitieux, plus il faut de neurones et de couches de neurones et plus il faut de données, et plus vous avez de neurones à entraîner et de données, plus l’entraînement est long, et donc, pour économiser du temps, il faut plus de puissance de calcul. La puissance de calcul, on en avait pas non plus assez avant pour avoir des temps d’entraînement raisonnables. Non, le deep learning, ce n’est pas du tout un algorithme éco responsable. x) Pour parler plus grassement, en fin de compte, un projet de Deep Learning, c’est un concours de bites : plus on veut faire un projet ambitieux, plus il faut de moyens (recruter des data scientistes pour récolter et traiter les données, louer des cartes graphiques sur le cloud ou disposer de son propre centre de calcul). Les limites de Midjourney, Dall-E & co Pour en terminer avec le fonctionnement des IA, voici une petite analyse plus poussée des limites des IA génératives actuelles. Pour commencer, voici des captures des galeries de Stable Diffusion et de Midjourney. J’ai aussi refait la même recherche que Spartan sur les démons pour Stable Diffusion. Y’a pas un truc qui vous fait tiquer tout de même ? Une IA c’est très fort pour recracher des choses qui ressemblent aux données d’entraînements, mais c’est beaucoup plus à la peine pour faire quelque chose de nouveau et dans ces galeries on ne vous affiche que les résultats les plus réussis, et dans les résultats les plus réussis, qu’est-ce qu’on trouve majoritairement ? Des portraits, des légions de portraits ! Les concepts de personnages ont tous à peu près le même posing et si on inclut les quelques décors on constate que tout est vu à hauteur d’yeux. Par contre, pour les keyframes du genre un personnage accroupi qui observe une fleur vu en plongée, un bonhomme qui surfe sur un skate volant vu en contre plongée ou 2 personnages qui font un câlin, on repassera. C’est pour ça que la tentative de dragon cyberpunk de Spartan s’est soldée par un bel échec critique : des images de dragons, on en trouve à la pelle, des images de dragons cyberpunk, vachement moins ! Alors, pourquoi cette limitation ? C’est simple, la nourriture des IA, les données, est aussi leur plus grand point faible. Le fait est que sur Internet vous trouverez plus de portraits vus à hauteur d’yeux que de keyframes de malades avec des cadrages improbables, et les personnages qui se tiennent debout dans des poses peu originales, c’est quand même plus facile à dessiner, donc il y en a aussi plus de que des poses complexes. Fatalement, les IA sont plus douées pour recracher ce type de contenu. C’est pas une surprise. Cependant, des photos et des dessins avec des personnages dans des positions variées, il y en a aussi sur Internet, alors pourquoi ces IA sont-elles paumées avec des demandes anatomiquement plus complexes ? C’est simple, elles s’entraînent sur la base de couples image/description et les descriptions des images ne sont absolument pas écrites par les data scientistes de l’équipe de développement, ils ne sont pas assez nombreux. Non, ils utilisent tout simplement des bots qui vont lire la description que l’auteur de chaque image a rédigé et les mots clé qui vont avec. Mettons, vous faites un beau keyframe avec une scène d’action ou une étude de modèle vivant. Lorsque vous publiez votre image sur le net, est-ce que vous vous amusez à rédiger une description complète du posing et du cadrage comme si vous vouliez qu’un aveugle puisse “visualiser” avec précision le contenu de votre image ? Non. Par conséquent, il y a un trou dans les données et l’IA se retrouve avec des images dont elle ne sait pas trop quoi faire et des possibilités qui ne lui sont pas accessibles. Ceci pose d’ailleurs un problème plus grave : les biais culturels et les stéréotypes. Sans traitement manuel, ce que les IA recrachent est à l’image du contenu qu’elles trouvent sur Internet. C’est d’ailleurs comme ça que les tentatives d’IA de conversation ont fini par tenir des propos racistes et que le portail francophone de Google a un jour affiché l’affiche du film Black Panther associée au titre La Planète des Singes en faisant passer ça pour une fiche d’Allo Ciné. Les activistes d’extrême droite savent très bien comment fonctionne le deep learning et comment entuber une IA de ce genre. C’est simple : il suffit de publier une association entre une image et un texte de façon à ce qu’elle devienne plus fréquente que l’association affiche/titre originale. Les développeurs de Craiyon font d’ailleurs une mise en garde à ce sujet dans leur FAQ. https://www.craiyon.com C’est écrit aussi sur le site de Stable Diffusion : https://stability.ai/blog/stable-diffusion-public-release En parlant de câlins, voici un test que j’ai fait avec Midjourney. Décryptage d’un petit exemple. Je lui ai demandé de me “dessiner” les pilotes de Formule 1 Max Verstappen et Lewis Hamilton qui se font un câlin. Voici le résultat après plusieurs itérations. Oui, c’est dégueulasse. Y’a des trucs malaisant. Désolée si vous étiez en train de manger. :’D Ici encore, le point faible, ce sont les données. Sur cette image, avec les copains, on soupçonne Midjourney d’avoir utilisé des morceaux d’un autre pilote pour recréer Max Verstappen : Charles Leclerc. Alors pourquoi ça fait ça ? Et bien, toujours pour la même raison. Midjourney et ses semblables utilisent des couples image/description pour s’entraîner et pour des pilotes de F1, nul doute qu’elles vont piocher les descriptions dans les articles de presse associés aux photos des pilotes ou les hashtags d'Instagram. Sauf que, ces IA, elles sont un peu con con quand même. Charles Leclerc et Max Verstappen sont deux pilotes qui se connaissent depuis tout petits à batailler en piste depuis le kart jusqu’à la F1, il est donc impossible de parler de l’un sans parler de l’autre. Par conséquent, les IA ont trouvé des photos de Charles Leclerc associées au nom de Max Verstappen. Et ne parlons même pas des tas de pécores sur Instagram qui ajoutent des tonnes de hashtag à la pertinence discutable sur leurs publications. ¬¬ Sans oublier les photos où les 2 pilotes sont présents. Résultat, les IA pondent des images de Max Verstappen en prenant des bouts de Charles Leclerc. Et patatra ! Ça donne ce genre de truc étrange… Avec une bouche à l’envers qui bave. 😂 Spartan pense que tous ces défauts seront gommés avec le temps. Voici ce qu’il faudrait faire pour y parvenir : Le fait est, que sur internet, la majorité des images que l’on trouve n’est pas associée à une description exacte de ce qu’elle affiche, et c’est la principale limite qui empêche d’aller plus loin. Pour contourner cette limite, il faudrait renoncer au crawling automatique du contenu du web et recruter des armées entières de gens qui rédigent une description exacte de chacune des milliards d’images utilisées pour entraîner les IA. … On parle de boîtes qui ne sont même pas fichues de recruter assez de monde pour cliquer sur un bouton “Supprimer” à la chaîne pour modérer les contenus haineux et qui sont même en train de licencier du monde en ce moment parce que leurs revenus sont en baisse (Coucou Meta ! ). ¬¬ Le nerf de la guerre, ce sont les données, leur quantité ET leur qualité. Faire avaler des pétaoctets de données à une IA ne sert à rien si on ne les nettoie pas et ne les traite pas avant. Et si elles sont trop chaotiques, il faut se taper le boulot à la main. Stratégie pour hacker les IA Ces IA donnent du pouvoir au camp des clients, mais en s'intéressant au fonctionnement du deep learning et aux cas de fiascos connus on peut se rendre compte que nous aussi, les artistes, avons un certain pouvoir. On peut pointer du doigt les activistes d’extrême droite pour leurs valeurs discutables mais on peut aussi les remercier de nous avoir montré la voie pour mettre du poil à gratter à ces entreprises qui utilisent nos images sans nous demander notre autorisation. Il suffit pour cela de s’attaquer au principal point faible des IA : en sabotant les données ! Voici plusieurs pistes pour ce faire. La première : comme expliqué plus tôt, il y a des trous dans les données qui font que les IA ne savent pas tout faire. Et bien on peut agrandir ces trous volontairement, en arrêtant de poster des portraits et des poses basiques, en nous efforçant de dessiner davantage de poses et de cadrages complexes (c’est pas un mal, ça nous fera progresser 😛 ) et lorsque nous postons nos images, ne surtout pas rédiger de description précise de leur contenu et réduire le nombre de hashtags aux seuls 2 ou 3 les plus pertinents. Ainsi, les IA n’ont aucune chance d’apprendre correctement l’anatomie et la perspective. La seconde : injecter de la merde. Les gens qui mettent des tonnes de hashtags à la pertinence discutable sur Instagram, finalement ils sont pas si cons. Petit exemple : Imaginons que vous dessiniez un Sangoku, seul, en train d’exécuter un Kaméhaméha. Lorsque vous postez l’image sur le net, premièrement, ne décrivez toujours pas la pose et le cadrage exact. Par contre, vous pouvez vous amuser à raconter ce qu’il se passe hors champ, des choses qu’on ne voit pas dans l’image, sans préciser que c’est hors champ (le visiteur humain le comprendra tout seul). Par exemple, que Sangoku va jeter son Kaméhaméha sur Végéta, ou Freezer, ou Cell… Et dans les hashtag ajouter des personnages qui n’apparaissent pas dans l’image, genre #vegeta #cell #freeza #gohan… Ou d’autres hashtags avec un lien éloigné. Comme ça, les IA seront dans la confusion. On peut même pousser le vice en associant ces hashtags à des contenus NSFW. 8D L’idée c’est de rendre le traitement des données impossible de façon automatisée et trop coûteux à la main. Si on s’y met massivement, il y a moyen de geler la progression de ces IA. A titre individuel, il n’y a pas grand chose à faire, juste être un peu attentif à la manière dont on décrit nos images quand on les poste sur Internet, voire être carrément flemmard et en écrire le moins possible. x) Plusieurs IA basées sur le contenu du web ont été sabotées de cette manière par le passé, parfois jusqu’au retrait du marché, donc il n’y a pas de raison qu’on ne puisse pas recommencer. La chose importante à garder en tête c’est que ce qui coûte le plus cher dans le développement d’une IA c’est la récolte, le nettoyage et le traitement des données et on peut rendre ça déraisonnablement cher. Alors en effet, je suis très sarcastique à propos des IA similaires à Midjourney. D’une part je suis assez fatiguée des discours binaires type “On va tous mourir” ou “C’est fantastique ! C’est la révolution !” qui survendent ces IA. D’autres part, j’en ai testées un certain nombre et je les ai trouvées tout à fait inexploitables pour mes projets et mes workflows. Je ne dis pas que ça ne servira à personne, mais ça ne colle pas à mes besoins spécifiques, voilà tout. Pour autant, je ne crache pas sur la technologie du Deep Learning en elle-même. Au contraire, je la trouve super intéressante, mais je vois sa place davantage pour des tâches exécutives spécialisées que pour des tâches créatives généralistes. Bon, maintenant qu’on a vu comment ça fonctionne, abordons la partie fun de l’article. Faire une IA soi-même ! \o/
    1 point
  47. Éléments importants tirés des briefs et notes : Bayne : Chavador : Harbre : Et voilà pour ma base ! Prochaines étapes, petits thumbnails en suivant en parallèle le cours de croquis pour essayer de mettre tout ça en forme. Je tâcherai de faire les trois thumbnails et trois croquis avant de décider l'ordre dans lequel je les mettrai. Merci de m'avoir suivie ! 🙂
    1 point
  48. bon, blocage traditionnel, je vais laisser infuser en attaquand un nouveau projet, ou en reprenant un ancien...
    1 point
  49. 1 point
×
×
  • Créer...