Classement
Contenu populaire
Affichage du contenu avec la meilleure réputation le 12/19/2022 dans toutes les zones
-
3 points
-
3 points
-
Yo ! J'ai commencé la salle des potions, voici le rendu 3D, beaucoup de choses faites sur blender, c'est une scène avec beaucoup de props et beaucoup de sources de lumières donc j'ai forcé sur la 3d ^^ Bien sur c'est pas très lisible encore, c'est un peu baveux toussa toussa, mais j'vais faire le max pour transformer ça en un truc cool, c'est déjà une bonne base à mon avis !3 points
-
3 points
-
Bonjour, voici mon digital painting pour ce chapitre. J'utilise Photoshop depuis déjà deux ans, le temps passe vite. Je souhaite progresser, je m'appuie encore beaucoup sur la ref, j'ai envie de prendre des décisions plus audacieuses et à retranscrire mes idées plus facilement tout en continuant d'apprendre et de progresser en digital merci d'avance pour vos retour !2 points
-
2 points
-
2 points
-
2 points
-
2 points
-
Bonsoir, J'ai passé plus de temps que prévu sur cet exercice mais j'ai préféré recommencer les formes et les endroits où j'étais le moins à l'aise. Ca n'a pas été facile mais à force pas mal d'automatismes sont rentrés donc je suis assez satisfait ! Plus que le résultat final qui est très clairement perfectible c'est le fait que j'ai réussi à me remotiver et à voir que je commençais à être beaucoup plus à l'aise que je retire de cet exercice ! Bonne soirée à toutes et à tous !1 point
-
Hello et ben je me lance tout prémier challenge . Je suis grand débutant donc ça va pas casser la barraque j ai posé juste quelques trucs pour une compo à développer probablement un perso de dos au premier plan … imaginons qu’il est lui aussi sur une des îles flottantes de l’universite Je vais essayer en tout cas.; merci1 point
-
Salut ! Bon je me lance enfin pour ce challenge, j'ai pas mal de retard mais c'était compliqué de m'y mettre avant. En plus j'ai malencontreusement cassé mon stylet alors je vais dessiner au doigt . 😅 Le personnage de Chavador m'a tout de suite plu, donc j'ai commencé par faire quelques recherches de la bouille que j'aimerai lui donner. Comme il me reste vraiment peu de temps je vais poster régulièrement mes avancées. Si vous avez des conseils ou des remarques n'hésitez pas, ça m'aidera beaucoup. 😄1 point
-
Bonsoir ! Je me lance enfin dans le challenge et pas facile de choisir quoi faire dans ce beau brief. J'ai un peu plus l'habitude des personnages donc je vais partir pour une première participation (en espérant pouvoir en faire d'autres) sur Vilador. J'ai longuement hésité avec Sviktan ou Bayne, ils seront peut-être les suivants mais les créatures me font de l’œil aussi... Je remet sa description ici : Hop mes petites recherches de design avec une inspiration du Jember Fashion Carnaval pour les épaulières (en un peu moins gigantesque !) : Je pensais partir sur une des versions 1, elles me plaisent plus mais à voir selon la scène ET surtout la pose du perso (vous excuserez mon écriture pas très jolie ahah). Et ici quelques thumbnails : Pour la 8, je pensais lui donner un background un peu sombre (ou triste) pour "personne ne sait quels sont ses objectifs, si ce n’est la quête du savoir, d’une manière ou d’une autre." et "Leur morale peut fortement se plier si le savoir ou l’objectif en valent la peine" = voler le savoir des autres en les tuant ? sacrifier un être contre le savoir ? ou je vais peut-être trop loin donc à méditer !1 point
-
1 point
-
Eh ben ça commençait furieusement à dater... Pour des raisons diverses sur le plan perso, je n'ai pas pu avancer sur mon dessin comme escompté. Si bien que je n'ai pas réussi à dépasser l'étape des valeurs encore. Couplé à ça, j'ai eu une période où j'ai cru devoir encore tout recommencer à nouveau parce que je n'étais jamais satisfait de la pose de mon animal, ou du mélange ours/renard que j'en faisais... Je me suis fait rattraper par mes démons du perfectionnisme, et prendre le stylet était devenu une épreuve plus que du plaisir. La chose qu'on évite absolument quoi... donc autant y mettre un terme de manière radicale. Étant donné le délai restant avant les fêtes, je préfères me rendre à l'évidence et ne plus m'imposer de rendre le travail avant la fin du challenge. Y a peu de chances que j'obtienne un rendu qui me plaise dans un tel délai, donc tant pis pour bibi 😕 ça m'attriste parce que j'étais hyper motivé au départ, mais ça vaut mieux ainsi. Aucun boulot ne vaut qu'on se ruine la santé dessus. Peut-être que j'en ferais quelque chose plus tard, quand ça ira mieux. Dans tous les cas, voilà ci-dessous l'illustration dans l'état actuel. Peuuuuut-être que j'avancerais encore dessus avant le clap de fin, mais jamais je me vois l'avoir terminé à temps, et j'en ai fait mon "deuil". Merci à tous pour vos commentaires en tout cas, c'était super encourageant pour les débuts ! Je souhaite encore bonne chance à tous les participants et je dis déjà bravo à ceux ayant été jusqu'au bout ! Vous pouvez être fiers de vous 🙂 Et enfin, @m100 merci pour ton paint over ! La pose que tu as dessiné ne raconte pas la même chose que ce que je voulais dire, mais elle est efficace quand même et parfaitement représentative d'un renard, donc gg ^^1 point
-
Béjour, Je m'appelle Miaro, et après des années à faire de l'autodidacte dans mon coin, je me décide à prendre des cours. Je ne viens pas du monde du dessin, mais c'est un hobby qui me suit depuis toujours. Aujourd'hui je commence à m'entrainer sur le digital art pour faire, plus tard, des BD/comics sur internet (et peut être publier, qui sait? ). Tous mes dessins sont sur le theme Harry Potter (je me suis mise à dessiner après avoir lu des fanfics). Pour l'instant, très peu de mes dessins sont sur internet (entre mon boulot et les IA qui volent les dessins, mes profils sont assez vides :/) mais j'ai quelques dessins sur Instagram et une BD sur AO3 (BD horreur, tant par son histoire que les HORRIBLES graphismes fait en un mois, désolée pour vos yeux... ) J'ai découvert DPS avec YouTube et les tutos de Spartan sur Krita, et je suis addicts à ses conseils! En bref, très contente de venir ici et hâte de voir tout vos belles choses! ❤️1 point
-
Merci! Pourquoi pas un jour, on se tient au jus! Merci pour les encouragements !1 point
-
Merci! Je prends un peu mon temps pour prendre mes marques, mais j'adore déjà l'ambiance! Hâte de vous rencontrer tous! Pour mes créations... je vais attendre d'en avoir quelques unes potables avant de les ajouter hahaha je veux pas vous cramer les yeux1 point
-
1 point
-
1 point
-
Salut @melka! J'aime beaucoup le design que tu as choisi pour tes kikanwams, ils correspondent bien au brief et ils ont l'air si doux 😍. Je ne saurais pas me décider sur la version que je préfère. Peut-être le roux ou le blanc ? Beau travail aussi sur les itérations de colliers ! Sur ta dernière planche, mon regard a été particulièrement attiré par le collier B. Hâte de voir ce que tu vas proposer ! A bientôt !1 point
-
1 point
-
Bonjour à Tous, Je fais du dessin depuis mon enfance sur papier machine en noir et blanc en autodidacte. Mes sujet de dessin n'était pratiquement que des mangas, puis en grandissant et en utilisant d'avantage le pouvoir des ombres et lumières je me suis d'avantage tourné sur le réalisme, et maintenant c'est principalement des portrait que je fais. C'est ma conjointe qui m'a parlé du dessin graphique et je me suis dit pourquoi pas. Alors j'ai investi dans une XP PEN Innovator 16, et j'ai commencé à suivre les cours de Spartan. J'exerce une profession qui n'a aucun lien avec le dessin. Le Digital Painting est à ce jour un hobby pour moi me permettant une amélioration de l'usage de l'outil informatique, Un challenge dans la diversification des sujets et dans l'emploi de la couleur, Et j'espère une amélioration de mes compétences en dessin.1 point
-
1 point
-
Super merci le fait de la vue du dessus est en effet une très bonne idée.. mais d’après le raisonnement en effet je me dit que la valeur de l’île de gauche est peut être trop forte… ou bien sa position n’est pas idéale… je vais voir si je trouve une solution à ça. Merci pour les conseils avisés1 point
-
Bravo pour ce DP ! Je pense que tu vas effectivement avoir des conseils dans ces cours qui vont t'aider à franchir l'étape que tu attends et qui te mèneront à une liberté totale dans tes créations !!! Bravo encore !1 point
-
Coucou l'ami ! Elle avance de fou cette création, c'est superbe ! Tu peux être super fier de toi d'en arriver au bout ! On en aura ch*é toi et moi, mais ça y est, la ligne d'arrivée est en vue, mon cap'taine ! 🙂 Courage pour ton rush de fin et j'espère que tu te soignes bien ! Des bisous !1 point
-
Coucou @Hetiz, bienvenue par ici ! 🙂 Waou ! Quelle claque ! 😍Ton DP est vraiment sublime. On sent que tu as de l'expérience là-dedans. Tu gères déjà très bien des notions importantes, je sens que tu vas glisser facilement sur les premiers chapitres ! 🙂 Au plaisir de voir tes futures créations !1 point
-
1 point
-
Coucou copain ! Merci, ça me fait trop plaisir ! J'ai fait quelques retouches de lumière aujourd'hui et il me manque le tatouage, je suis en train de travailler dessus. J'ai espoir de terminer tout ça avant Noël et d'envoyer ma proposition 🥰merci encore ! Salut Grison ! Ton message m'a vraiment fait super plaisir. Je suis contente que la petite histoire que j'ai essayé de raconter pour notre petit Bayne te plaise... En tout cas, un grand merci pour tes encouragements, ça me fait chaud au coeur ! 🙂1 point
-
1 point
-
1 point
-
1 point
-
1 point
-
1 point
-
Hello ! Bon retour parmis nous 😉 C'est cool d'avoir repris les cours ! Pour ce qui est de ton illu perso, globalement c'est plutot réussi mais en soit il te manque pas mal de notions que tu verras au fur et a mesure du programme indispensable. T'as déja quelques notions de perspective, je dirais que ce qui peut etre amélioré c'est la composition (notamment le story telling, pour l'instant on comprend pas trop ce que raconte ton image) Et au niveau de la couleur et de l'ambiance également, tu verras plus loin dans les chapitres que les couleurs d'un objet vont changer selon son environnement (par exemple ta pierre grise ne va pas forcément rester grise dans un environnement sans lumière 😉 ) C'est des choses que tu verras au en avancant, donc pas de panique, ca reste déja une bonne image pour le chapitre 2 Pour ce qui est des oisillons c'est bien réussi la aussi, a mon avis tu peux grandir légèrement l'oiseau de droite et lui faire son oeil un peu plus petit Sinon a part ça c'est bien réussi ! Keep it up1 point
-
Hello ! Superbe tous ces croquis, bravo pour la planche 😉 Par contre pourquoi ils sont tous penchés ? 😄 Globalement ils sont tous plutot bien réussis, je dirais que le chat et l'appareil photo sont un peu éloignés des ref. Sur l'appareil photo il manque une bonne partie sur la droite de l'objectif et pour le chat il a les yeux trop gros, les oreilles trop petites et le museau est trop décalé sur la gauche également Essayes de retoucher un peu les proportions pour ces deux croquis Sinon pour le reste c'est bon Keep it up !1 point
-
Salut ! Tu t'en sors très bien sur ces croquis, l'ensemble est propre et les proportions sont bien respectées 😉 Attention au contour un poil trop épais sur la grenouille, mais a part ça c'est top ! Keep it up !1 point
-
Coucou @m100! Je te remercie mille fois pour le petit PO. J'ai tenté de faire un peu à ta manière avec des brushs différents, mais j'avoue que je tends à préférer une version où cette partie reste creuse. Ce n'est pas un personnage corporel, mais de la fumée, et j'ai bien l'idée qu'il y ait des "trous" comme quand on regarde de la fumée de cigarette. Pour être certaine de moi, j'ai posé la question autour de moi et il semblerait qu'une légère préférence se dégage tout de même pour que cette partie reste creuse. Ca n'enlève bien sûr rien à la gratitude envers ton retour ❤️ merci beaucoup ! D'ailleurs, je reviens avec des petites news de la colo (enfin !). J'ai pris mon courage à deux mains et j'ai commencé à tester, tantôt avec un calque Couleur, tantôt un calque Incrustation. J'ai tenté plusieurs couleurs différentes, je me suis plutôt bien amusée à regarder comment les valeurs réagissaient à ça. Pour finir, je me suis décidée à poser les valeurs locales un peu partout (en m'inspirant de la première colo que j'avais faite de Bayne), puis la lumière bleutée provenant de la pipe et un peu du fantôme. Je me suis retrouvée avec une image finalement très sombre, que je vous partage en dessous : Dans cette image, l'oeil était plutôt attiré par le fantôme et beaucoup moins par Bayne, qui est pourtant le sujet principal de mon dessin. Du coup, j'ai demandé conseil à @Serialqui m'a suggéré de mettre un fond plus clair derrière Bayne, comme si une lumière provenant d'une bougie existait derrière lui. Au final, l'image en est rendue là pour le moment : Bayne se détache déjà nettement mieux de cette manière. Il me manque encore des retouches de couleurs et de lumière à faire, notamment la lumière ambiante qui arrive derrière lui, par exemple. Toutefois... je pense que je ne pousserai pas plus loin ce DP niveau technique. Je sens que je me suis mise beaucoup en danger, et j'ai appris éééénormément dans le processus, mais j'atteins doucement mes limites de la compréhension de ce que je fais. Je n'ai pas encore eu le temps d'attaquer les exercices du chapitre 3, et même si les petits cours express de lumière de @loukilouchem'ont permis d'aller plus loin que mon niveau actuel, je pense qu'il faut que j'admette que là, c'est une très belle photographie de mon niveau actuel (+ un petit peu), et je suis super fière de ce que j'ai réussi à faire 🙂 . Je vais faire les petites corrections manquantes, ajouter le tatouage, et... je pense que ça sera terminé ! Pour le moment, je vais laisser ce dp reposer un petit peu pour que j'attaque le rush final avant Noël 🙂 . Comme toujours, je prends volontiers vos retours et je vous remercie d'avance de m'en faire. Vous m'aurez tous fait évoluer de fou sur cette création ❤️ merci beaucoup ! A bientôt pour la version finale !1 point
-
Oui ça marche déjà mieux 🙂 Pour éviter d'avoir à ajouter trop de monde, et pour ne pas que ça fasse vide tu peux encore recadrer un peu et enlever à droite et à gauche si besoin. Pour avoir un format encore plus vertical.1 point
-
1 point
-
Bah c'est raté, à partir de demain je n'aurai quasi plus de temps pour peindre jusqu'à l'année prochaine 😅 Pas grave, j'ai une participation quand-même !1 point
-
Deux petits thumbnails pour l'illu avec les Tigob mais je ne pense pas avoir le temps de la finir (la 2nde pourrait être réalisable mais ça risque d'être juste) donc j'ai repris mon design pour en faire un simple character concept art histoire de pouvoir présenter quelque chose (en le retravaillant mieux) : Le bouclier est un couvercle de poubelle en métal, le casque est fait avec un marque page Léonardia et le crâne est un ancien élève qui s'est malheureusement égaré. J'ai laissé tomber l'épaulière en écorce parce que j'arrivais pas à la caser dans la compo, ça faisait chargé avec le bouclier. Il a l'air énorme comme ça mais je ferais une échelle en reprenant mes recherches pour Vilador (je recycle ahah). EDIT: Avancée (je tente une colo directe)1 point
-
1 point
-
1 point
-
Je n'ai pas pu résister à retravailler un peu les sources de lumière, ça me semblait légèrement fade au niveau du rendu ahah : En même temps j'ai fais quelques recherches de design pour le Tigob pour une potentielle seconde participation où je pense jouer sur les phrases "ils sont craintifs seuls" et "La bile de Tigob est particulièrement recherchée pour ses propriétés en potion."1 point
-
1 point
-
1 point
-
Wow, je n'ai pas pris le temps de tout lire encore mais sacré sujet que tu nous as fait là, merci beaucoup @Suisei ! C'est inestimable et vraiment bien expliqué. Comme suggéré, si tu es d'accord, je serais ravi de le mettre en avant sur le site. Autant de travail mérite de la visibilité. Et @Neuf150 très bonne idée pour une section dédiée aux IA. On va voir si on fait ça tout de suite ou si on attend un peu. Merci pour la suggestion !1 point
-
Comment ça marche ? Pour commencer, faisons une petite précision sur le type d’IA qui fait beaucoup parler de lui de nos jours, il s’agit du deep learning. L’intelligence artificielle est en réalité un champ d’étude très vaste regroupant des sous domaines qui ont eux-même des sous domaines. Le machine learning est un sous domaine de l’intelligence artificielle et le deep learning est lui-même un sous domaine du machine learning. Je vous explique le principe de fonctionnement sans vous assommer avec les détails techniques. Vous verrez que finalement, qualifier ces algorithmes d’”intelligence” artificielle est un putain d’abus de langage. Le principe de base du machine learning Bon, vous allez être un peu surpris mais… Le machine learning, vous en avez tous fait à l’école sur papier. Si si ! Je vais vous montrer. Vous avez sûrement déjà vu ce genre de graphique et on vous sûrement déjà demandé de tracer à la règle une droite qui passe le plus près possible de tout ces points. Pour l’anecdote je me souviens l’avoir fait en cours de physique au collège. La prof nous avait donné un graphique avec des mesures de la température d’ébullition de l’eau en fonction de l’altitude. Elle nous a demandé de tracer la droite la plus proche possible de tous les points, comme ceci : C’est une fonction affine de type y = ax + b. Ensuite, elle nous a demandé de placer 2 points dessus et de mesurer leur position pour calculer les paramètres a et b de la fonction affine et pour finir, à l’aide de ces paramètres calculés, elle nous a demandé de prédire la température d’ébullition de l’eau pour une altitude donnée. Et bien voilà, le machine learning, ce n’est rien d’autre que ça : utiliser les données récoltées pour calculer les paramètres a et b optimaux pour construire un modèle de type y = ax + b qui soit capable de prédire la valeur de y par rapport à une donnée x avec la marge d’erreur la plus petite possible. C’est con, hein ? 😄 Comme vous pouvez le voir, la droite n’est qu’une approximation et il est impossible de la faire passer par tous les points. Tout ce qu’on peut faire c’est essayer d’avoir la marge d’erreur moyenne la plus petite possible, mais elle ne pourra jamais tomber à zéro. Alors on pourrait imaginer un modèle beaucoup plus compliqué capable de passer par absolument tous les points, comme ceci : Modèle de type Mais vous voyez bien que ce modèle est complètement absurde par rapport à la réalité de la physique et que si vous ajoutez une nouvelle mesure dans les données, comme ceci : Et bien la marge d’erreur est même encore plus grande que si vous vous étiez contenté d’une simple droite. C’est le problème de la généralisation du modèle. Un bon modèle doit être capable de minimiser les erreurs sur les données d’entraînement, mais tout en les minimisant sur de nouvelles données aussi. Le travail d’un data scientiste consiste donc à analyser les données et sélectionner un modèle qui propose le meilleur compromis possible entre la précision vis à vis des données d’entraînement et la capacité de généralisation. La perfection est impossible à atteindre parce qu’il y a des fluctuations et du bruit dans les données. La droite est un exemple. Selon la distribution des données on peut avoir besoin d’un modèle différent, comme ici : Ici on a un modèle de type et il faut optimiser les paramètres a, b et c. Voilà pour les bases du machine learning. La particularité du deep learning, c’est qu’on ne va pas ajuster 2 ou 3 paramètres, mais des millions, voire des milliards de paramètres pour traiter des paquets de données en vrac. Mais le principe est identique. Le deep learning Les schémas que je présente dans cette section sont des captures d’une vidéo de la chaîne Machine Learnia sur le thème du Deep Learning sur Youtube. Je vous parlerai de cette chaîne dans la bibliographie. Le premier concept de neurone artificiel a été élaboré par deux mathématiciens, Warren McCulloch et Walter Pitts, en… 1943 ! Je vous avais prévenus que vos parents n’étaient pas encore nés. x) Rappelons le principe de fonctionnement d’un neurone, un vrai. En orange, vous avez les dendrites qui sont connectées aux terminaisons d’autres neurones. Elles sont excitées ou non selon que les neurones qui les précèdent le sont ou non. Si le niveau total d’excitation dépasse un certain seuil, le neurone est à son tour excité et transmet l’information à ses terminaisons (en vert) qui sont elles-mêmes connectées aux dendrites d’autres neurones. Et bien le neurone artificiel s’inspire du même principe : il fait la somme des signaux x qui peuvent être des données d’entrée ou le résultat d’autres neurones artificiels (on appelle cette étape agrégation), il vérifie que cette somme dépasse un certain seuil, ou pas et si c’est le cas, le résultat y vaut 1, sinon il vaut 0 (c’est l’étape d’activation). Notez que lors de l’agrégation, toutes les entrées n'ont pas la même influence. Celle-ci est définie par les paramètres w. On appelle cela les poids et c’est de ces poids que dépend la fonctionnalité du neurone. A l’époque nos 2 mathématiciens suggéraient déjà qu’on pouvait organiser les neurones artificiels en réseau. Mais il y a un hic ! Ils n’ont pas proposé d’algorithme permettant d’ajuster automatiquement les poids w, ô combien importants pour pouvoir définir la fonctionnalité qui ressortira du réseau de neurones, il fallait donc les définir à la mimine ! L'engouement pour l’IA est retombé comme un soufflet. Pfffft ! 💨 Il faut attendre 1957 avant que ne soit proposé le premier algorithme d’apprentissage automatique du neurone artificiel. L’idée est proposée par le psychologue Frank Rosenblatt et s’inspire toujours du principe de fonctionnement des vrais neurones. En gros, quand 2 neurones reliés entre eux sont excités en même temps, la connexion entre eux est renforcée. L’algorithme d’apprentissage s’appuie sur cette idée là. Dans la pratique, avant l’entraînement, on donne une valeur aléatoire à tous les poids w. Ensuite, on fait passer les entrées x dans le réseau de neurones qui calcule un résultat y. On compare ce résultat aux données d’entraînement y réelles. On ajuste les poids w de manière à ce qu’ils donnent un résultat plus proche des données réelles. Puis on recommence : on fait passer les entrées x dans le réseau de neurones qui calcule un résultat y. etc etc… Et ainsi de suite jusqu’à ce que la marge d’erreur ne bouge plus. Mais il y a encore un hic ! L’algorithme d’apprentissage proposé à l’époque ne pouvait fonctionner que sur une seule couche de neurones, et ne pouvait donc résoudre que des problèmes qui pouvaient être représentés par une droite. Alors ici, séparer 2 catégories avec une droite pas de problème. Mais là, par contre, on est comme des cons. Le soufflet retombe à nouveau. Pffft ! 💨 Il faut attendre 1986 pour que soit mis au point un algorithme d’apprentissage automatique multi-couche sur une idée proposée en 1974, la back-propagation. Je ne vais pas vous assommer avec des détails techniques, ce sont des math un peu bourrues. Retenez simplement qu’il s’agit d’un algorithme d’apprentissage qui parcourt le réseau de neurones à l’envers pour pouvoir ajuster les poids (d’où le “back”). Les étapes restent toujours les mêmes : Donner une valeur aléatoire à tous les poids. Faire passer les entrées x dans le réseau de neurones qui calcule un résultat y. Comparer ce résultat aux données d’entraînement y réelles. Ajuster les poids w de manière à ce qu’ils donnent un résultat plus proche des données réelles. Faire passer les entrées x dans le réseau de neurones qui calcule un résultat y. etc etc… Si on prend l’exemple d’un réseau de 3 neurones répartis sur 2 couches, on peut déjà résoudre des problèmes plus complexes. Bon, affichons notre petit réseau de neurones avec les opérations que fait chaque neurone. Le truc qu’il faut noter quand vous utilisez une IA, c’est qu’à ce moment-là, elle a fini son entraînement. Les poids w, ils ne bougent plus. Et donc, qu’est ce qu’il fait, là, le réseau de neurones, quand vous l’exécutez ? Il fait juste une grosse suite de multiplications et d’additions… Et c’est tout ! Vous pouvez voir ça comme un méga filtre Photoshop qui fait une opération différente à chaque pixel. J’ai d’ailleurs testé des IA qui ne faisaient pas mieux que des filtres Photoshop. ¬¬ C’est con, hein ? 😄 C’est fou ce qu’on peut faire avec de simples additions et multiplications. Comme vous pouvez le voir, le neurone artificiel ne fait que s’inspirer du principe de base des neurones de notre cerveau, il ne les simule pas. Pour cela il faudrait aller bien plus loin, simuler les réactions chimiques selon les types de neurotransmetteurs et bien d’autres choses que mes maigres connaissances en neurologie ne sauraient vous lister… Le bout de code du neurone artificiel est beaucoup trop simple pour prétendre simuler tout ça. Un réseau de neurones artificiels n’a donc pas grand chose de commun avec un cerveau bien réel. En fin de compte, dire que ce genre d’algorithme peut développer une conscience c’est un peu comme dire que le blender de votre cuisine peut en développer une aussi. Bon, alors du coup, si cet algo est aussi vieux et simple, pourquoi ce type d’IA n’explose que maintenant ? Et bien l’étonnante simplicité du deep learning est aussi son point faible. Outre le fait qu’elle présente, par principe, une limite à la perfection des résultats qu’elle peut produire, celle-ci ne peut fonctionner qu’avec une très grande quantité de données. Sans données pour l’entraîner, une IA créative ne peut générer qu’un bruit aléatoire. Pour pouvoir entraîner des IA de génération d’images, il a donc fallu attendre l’explosion des réseaux sociaux et des smartphones. Les données, on en avait pas assez avant. Second problème, plus un projet d’IA de ce type est ambitieux, plus il faut de neurones et de couches de neurones et plus il faut de données, et plus vous avez de neurones à entraîner et de données, plus l’entraînement est long, et donc, pour économiser du temps, il faut plus de puissance de calcul. La puissance de calcul, on en avait pas non plus assez avant pour avoir des temps d’entraînement raisonnables. Non, le deep learning, ce n’est pas du tout un algorithme éco responsable. x) Pour parler plus grassement, en fin de compte, un projet de Deep Learning, c’est un concours de bites : plus on veut faire un projet ambitieux, plus il faut de moyens (recruter des data scientistes pour récolter et traiter les données, louer des cartes graphiques sur le cloud ou disposer de son propre centre de calcul). Les limites de Midjourney, Dall-E & co Pour en terminer avec le fonctionnement des IA, voici une petite analyse plus poussée des limites des IA génératives actuelles. Pour commencer, voici des captures des galeries de Stable Diffusion et de Midjourney. J’ai aussi refait la même recherche que Spartan sur les démons pour Stable Diffusion. Y’a pas un truc qui vous fait tiquer tout de même ? Une IA c’est très fort pour recracher des choses qui ressemblent aux données d’entraînements, mais c’est beaucoup plus à la peine pour faire quelque chose de nouveau et dans ces galeries on ne vous affiche que les résultats les plus réussis, et dans les résultats les plus réussis, qu’est-ce qu’on trouve majoritairement ? Des portraits, des légions de portraits ! Les concepts de personnages ont tous à peu près le même posing et si on inclut les quelques décors on constate que tout est vu à hauteur d’yeux. Par contre, pour les keyframes du genre un personnage accroupi qui observe une fleur vu en plongée, un bonhomme qui surfe sur un skate volant vu en contre plongée ou 2 personnages qui font un câlin, on repassera. C’est pour ça que la tentative de dragon cyberpunk de Spartan s’est soldée par un bel échec critique : des images de dragons, on en trouve à la pelle, des images de dragons cyberpunk, vachement moins ! Alors, pourquoi cette limitation ? C’est simple, la nourriture des IA, les données, est aussi leur plus grand point faible. Le fait est que sur Internet vous trouverez plus de portraits vus à hauteur d’yeux que de keyframes de malades avec des cadrages improbables, et les personnages qui se tiennent debout dans des poses peu originales, c’est quand même plus facile à dessiner, donc il y en a aussi plus de que des poses complexes. Fatalement, les IA sont plus douées pour recracher ce type de contenu. C’est pas une surprise. Cependant, des photos et des dessins avec des personnages dans des positions variées, il y en a aussi sur Internet, alors pourquoi ces IA sont-elles paumées avec des demandes anatomiquement plus complexes ? C’est simple, elles s’entraînent sur la base de couples image/description et les descriptions des images ne sont absolument pas écrites par les data scientistes de l’équipe de développement, ils ne sont pas assez nombreux. Non, ils utilisent tout simplement des bots qui vont lire la description que l’auteur de chaque image a rédigé et les mots clé qui vont avec. Mettons, vous faites un beau keyframe avec une scène d’action ou une étude de modèle vivant. Lorsque vous publiez votre image sur le net, est-ce que vous vous amusez à rédiger une description complète du posing et du cadrage comme si vous vouliez qu’un aveugle puisse “visualiser” avec précision le contenu de votre image ? Non. Par conséquent, il y a un trou dans les données et l’IA se retrouve avec des images dont elle ne sait pas trop quoi faire et des possibilités qui ne lui sont pas accessibles. Ceci pose d’ailleurs un problème plus grave : les biais culturels et les stéréotypes. Sans traitement manuel, ce que les IA recrachent est à l’image du contenu qu’elles trouvent sur Internet. C’est d’ailleurs comme ça que les tentatives d’IA de conversation ont fini par tenir des propos racistes et que le portail francophone de Google a un jour affiché l’affiche du film Black Panther associée au titre La Planète des Singes en faisant passer ça pour une fiche d’Allo Ciné. Les activistes d’extrême droite savent très bien comment fonctionne le deep learning et comment entuber une IA de ce genre. C’est simple : il suffit de publier une association entre une image et un texte de façon à ce qu’elle devienne plus fréquente que l’association affiche/titre originale. Les développeurs de Craiyon font d’ailleurs une mise en garde à ce sujet dans leur FAQ. https://www.craiyon.com C’est écrit aussi sur le site de Stable Diffusion : https://stability.ai/blog/stable-diffusion-public-release En parlant de câlins, voici un test que j’ai fait avec Midjourney. Décryptage d’un petit exemple. Je lui ai demandé de me “dessiner” les pilotes de Formule 1 Max Verstappen et Lewis Hamilton qui se font un câlin. Voici le résultat après plusieurs itérations. Oui, c’est dégueulasse. Y’a des trucs malaisant. Désolée si vous étiez en train de manger. :’D Ici encore, le point faible, ce sont les données. Sur cette image, avec les copains, on soupçonne Midjourney d’avoir utilisé des morceaux d’un autre pilote pour recréer Max Verstappen : Charles Leclerc. Alors pourquoi ça fait ça ? Et bien, toujours pour la même raison. Midjourney et ses semblables utilisent des couples image/description pour s’entraîner et pour des pilotes de F1, nul doute qu’elles vont piocher les descriptions dans les articles de presse associés aux photos des pilotes ou les hashtags d'Instagram. Sauf que, ces IA, elles sont un peu con con quand même. Charles Leclerc et Max Verstappen sont deux pilotes qui se connaissent depuis tout petits à batailler en piste depuis le kart jusqu’à la F1, il est donc impossible de parler de l’un sans parler de l’autre. Par conséquent, les IA ont trouvé des photos de Charles Leclerc associées au nom de Max Verstappen. Et ne parlons même pas des tas de pécores sur Instagram qui ajoutent des tonnes de hashtag à la pertinence discutable sur leurs publications. ¬¬ Sans oublier les photos où les 2 pilotes sont présents. Résultat, les IA pondent des images de Max Verstappen en prenant des bouts de Charles Leclerc. Et patatra ! Ça donne ce genre de truc étrange… Avec une bouche à l’envers qui bave. 😂 Spartan pense que tous ces défauts seront gommés avec le temps. Voici ce qu’il faudrait faire pour y parvenir : Le fait est, que sur internet, la majorité des images que l’on trouve n’est pas associée à une description exacte de ce qu’elle affiche, et c’est la principale limite qui empêche d’aller plus loin. Pour contourner cette limite, il faudrait renoncer au crawling automatique du contenu du web et recruter des armées entières de gens qui rédigent une description exacte de chacune des milliards d’images utilisées pour entraîner les IA. … On parle de boîtes qui ne sont même pas fichues de recruter assez de monde pour cliquer sur un bouton “Supprimer” à la chaîne pour modérer les contenus haineux et qui sont même en train de licencier du monde en ce moment parce que leurs revenus sont en baisse (Coucou Meta ! ). ¬¬ Le nerf de la guerre, ce sont les données, leur quantité ET leur qualité. Faire avaler des pétaoctets de données à une IA ne sert à rien si on ne les nettoie pas et ne les traite pas avant. Et si elles sont trop chaotiques, il faut se taper le boulot à la main. Stratégie pour hacker les IA Ces IA donnent du pouvoir au camp des clients, mais en s'intéressant au fonctionnement du deep learning et aux cas de fiascos connus on peut se rendre compte que nous aussi, les artistes, avons un certain pouvoir. On peut pointer du doigt les activistes d’extrême droite pour leurs valeurs discutables mais on peut aussi les remercier de nous avoir montré la voie pour mettre du poil à gratter à ces entreprises qui utilisent nos images sans nous demander notre autorisation. Il suffit pour cela de s’attaquer au principal point faible des IA : en sabotant les données ! Voici plusieurs pistes pour ce faire. La première : comme expliqué plus tôt, il y a des trous dans les données qui font que les IA ne savent pas tout faire. Et bien on peut agrandir ces trous volontairement, en arrêtant de poster des portraits et des poses basiques, en nous efforçant de dessiner davantage de poses et de cadrages complexes (c’est pas un mal, ça nous fera progresser 😛 ) et lorsque nous postons nos images, ne surtout pas rédiger de description précise de leur contenu et réduire le nombre de hashtags aux seuls 2 ou 3 les plus pertinents. Ainsi, les IA n’ont aucune chance d’apprendre correctement l’anatomie et la perspective. La seconde : injecter de la merde. Les gens qui mettent des tonnes de hashtags à la pertinence discutable sur Instagram, finalement ils sont pas si cons. Petit exemple : Imaginons que vous dessiniez un Sangoku, seul, en train d’exécuter un Kaméhaméha. Lorsque vous postez l’image sur le net, premièrement, ne décrivez toujours pas la pose et le cadrage exact. Par contre, vous pouvez vous amuser à raconter ce qu’il se passe hors champ, des choses qu’on ne voit pas dans l’image, sans préciser que c’est hors champ (le visiteur humain le comprendra tout seul). Par exemple, que Sangoku va jeter son Kaméhaméha sur Végéta, ou Freezer, ou Cell… Et dans les hashtag ajouter des personnages qui n’apparaissent pas dans l’image, genre #vegeta #cell #freeza #gohan… Ou d’autres hashtags avec un lien éloigné. Comme ça, les IA seront dans la confusion. On peut même pousser le vice en associant ces hashtags à des contenus NSFW. 8D L’idée c’est de rendre le traitement des données impossible de façon automatisée et trop coûteux à la main. Si on s’y met massivement, il y a moyen de geler la progression de ces IA. A titre individuel, il n’y a pas grand chose à faire, juste être un peu attentif à la manière dont on décrit nos images quand on les poste sur Internet, voire être carrément flemmard et en écrire le moins possible. x) Plusieurs IA basées sur le contenu du web ont été sabotées de cette manière par le passé, parfois jusqu’au retrait du marché, donc il n’y a pas de raison qu’on ne puisse pas recommencer. La chose importante à garder en tête c’est que ce qui coûte le plus cher dans le développement d’une IA c’est la récolte, le nettoyage et le traitement des données et on peut rendre ça déraisonnablement cher. Alors en effet, je suis très sarcastique à propos des IA similaires à Midjourney. D’une part je suis assez fatiguée des discours binaires type “On va tous mourir” ou “C’est fantastique ! C’est la révolution !” qui survendent ces IA. D’autres part, j’en ai testées un certain nombre et je les ai trouvées tout à fait inexploitables pour mes projets et mes workflows. Je ne dis pas que ça ne servira à personne, mais ça ne colle pas à mes besoins spécifiques, voilà tout. Pour autant, je ne crache pas sur la technologie du Deep Learning en elle-même. Au contraire, je la trouve super intéressante, mais je vois sa place davantage pour des tâches exécutives spécialisées que pour des tâches créatives généralistes. Bon, maintenant qu’on a vu comment ça fonctionne, abordons la partie fun de l’article. Faire une IA soi-même ! \o/1 point