Classement
Contenu populaire
Affichage du contenu avec la meilleure réputation le 03/10/2023 dans toutes les zones
-
16 points
-
13 points
-
13 points
-
12 points
-
11 points
-
1h30 pour celui-ci. Comme quoi, pas de vêtements, pas de cheveux (ou peu), pas de bijou, ça change tout hahahaha. Un régal, encore une fois. Et du coup, je fais piocher dans mon dossier perso pour faire une autre étude, histoire d'avoir le nombre de portraits correspondant au nombre de jours (parce que ça me perturbe, oui, il m'en faut peu) cet après midi.10 points
-
10 points
-
Si tu fais ça, utilise ensuite le doigt pour faire "baver" les bords de tes coups de brush aux bons endroits, là tu veux des dégradés, ça peut donner des effets surper intéressants, et dans les endroits où tu veux des détails, oui, il va falloir jouer avec la taille et même le doigt encore. Purée ça va dur ! La tentation va être vraiment forte😋 Reviens vite ! et en pleine forme ! Je vois que certains utilisent des repères et du coup je vous fais un petit rappel : comme sPartan je conseille d'éviter d'utiliser les repères sauf pour vérifier, les grilles et les repères empêchent le cerveau de progresser à son plein potentiel (ouioui c'est avec qu'on dessine, les doigts ne sont qu'un accessoire😄). Sinon j'ai adoré faire celle d'aujoud'hui, bien que je sois crevé et un peu malade, je suis super content du résultat. Process : https://www.twitch.tv/videos/1760973800 Résultat :9 points
-
8 points
-
8 points
-
8 points
-
7 points
-
7 points
-
ANNONCE IMPORTANTE ! Bonjour les amis ! Bravo déjà pour les motivé-e-s qui ont d'ores et déjà posté leurs portraits du jour ❤️ Ensuite, comme je l'avais tease hier soir, je vais m'isoler quelques jours pour me ressourcer, coupée de mon téléphone et d'Internet. Je pars cet après-midi aux alentours de 14h30 et serai de retour dimanche à midi. D'ici là, je ne pourrai malheureusement plus poster les réfs, ni les portraits (bien que je les ferai de mon côté). Je découvrirai vos magnifiques interprétations dès mon retour et vous partagerai les miennes ! ❤️ Ainsi, je vais vous partager à la suite les deux prochaines réfs du défi, celle de samedi et celle de dimanche. Je compte sur vous pour ne pas les rusher toutes les deux cet après-midi et de travailler au jour le jour 😉 . Vous allez me manquer ! On se revoit dimanche les copains ! ❤️7 points
-
Bonjour, @Rhaenys_ Jolie étude. L'ombre de la montagne à droite pourrait être un peu plus foncée je pense. @Yellphrine Je trouve qu'on ressent bien la forme du paysage dans ton étude. @ushoe On retrouve bien l'ambiance. Je pense que la lumière sur les nuages pourrait être plus saturée. Voici ma participation, en valeurs pour cette étude. A bientôt 🙂7 points
-
@cyffob en 1h15 t'as déjà un beau rendu ! ☺️ @ushoe on reconnaît bien les formes du paysage, bravo d'avoir fait ça en 1h ! 😉 @Yellphrine super résultat en seulement 35min ! 💪 Voici mon étude. J'ai mit environ 2h30 (vu qu'il n'y a pas de limite de temps). J'aurai pu peaufiner encore un peu, mes montagnes du fond à droite sont plus hautes que sur l'original 😅7 points
-
6 points
-
Double post encore pour les petites réfs de ce weekend ! Rappel : on joue le jeu et on les fait au jour le jour hein ! 🙂 Pour le défi de ce weekend, je me suis dit qu'il pourrait être intéressant d'étudier des chara design, autrement dit, des portraits déjà réinterprétés. Et qui de mieux pour cet exercice que les boss de Disney ? 🔥 Je vous propose donc pour samedi et dimanche d'étudier deux vilains (parce que les vilains sont cool !). Et pour ceux qui voudraient se challenger un peu, pourquoi ne pas essayer de les rendre réalistes ? 🙂 On va donc s'essayer sur deux des meilleurs vilains (en toute objectivité !), j'ai nommé Ursula pour samedi, et Claude Frollo pour le jour du Seigneur ! 🙂 J'espère que le thème vous plaira. Hâte de voir vos interprétations ! A dimanche les copains ! ❤️ SAMEDI 11 MARS : DIMANCHE 12 MARS :5 points
-
5 points
-
Eeet double-post ! Re-bonsoir ! 🙂 Dernière réf avant le défi du weekend ! D'ailleurs, il va y avoir une particularité ce weekend pour la transmission des réfs puisque je pars m'isoler en ermite de demain après-midi à dimanche midi. Mais je vous en parle plus en détails demain avant de m'en aller ! 💪 En tout cas, j'espère que vous vous amuserez bien sur cette réf ! Hâte de voir les résultats 🙂4 points
-
Très impressionnant vos études ! @Yun77 Les couleurs rendent bien elles sont super justes ! @Domny Bluffant le résultat que tu obtient en 1h seulement le rendu est incroyable 🤯 De mon côté c’est ma toute première étude et aussi la première fois que je peins par masse sans croquis préalable. Bon du coup ça m’a pas pris 1h mais plutôt 2h30 surtout avec les nuages qui m’ont bien fait galérer !4 points
-
4 points
-
3 points
-
3 points
-
3 points
-
Voici ma participation pour cette étude. Ca faisait un moment que j'avais pas pu faire les exercices, ça fait du bien :) Merci Domny pour le choix des visuels :) @Albus Corvus très bon rendu pour une première en 1h, bravo ! Merci @Yun77 pour avoir publié ton process, c'était super intéressant. le rendu est top également ; je dirais peut-être que le ciel de la première est un peu trop foncé pour moi. @Domny j'adore tes couleurs ! @AlexTrès bon rendu pour une étude en une 1h. je pense que tes nuages à droite manque un peu de zone orange @_kant_ Bravo pour ta première étude, le rendu est top et tes proportions ont l'air justes aussi, peut-être la falaise devant légèrement trop grande. @cyffob C'est un bon début d'étude, surtout pour tes proportions ; tes teintes sont un peu trop clair en revanche @no_vice, @berenice, théoriquement, il est possible de faire un très bon painting juste avec le brush de base et sans autre brush texturé; y'a pas mal de tutos et pour ma part c'était très rassurant de voir ça, car quand on débute on a l'impression que les brushs texturés c'est vraiment le truc incroyable à maitriser de toute urgence. Alors que non, ça vient petit à petit, et on en utilise peu au final. Surtout pour une étude comme ça, où l'objectif c'est pas d'avoir un rendu réaliste, mais plus de comprendre et analyser l'oeuvre. Idem pour le temps passé dessus. Le principal c'est d'en comprendre le plus possible :) Du coup voici mon étude : faute de temps, j'ai suivi la tendance et je l'ai faite en une heure. J'ai utilisé uniquement le brush "Big Softie" (section "spécial" du pack de Spartan). Je suis content du résultat. je voulais vraiment étudier les masses et en une heure je pense m'en être pas trop mal sorti. Le rendu reste vraiment simpliste, je verrais si je peux la continuer un peu. Bon brush à toutes et tous :)3 points
-
3 points
-
3 points
-
@Albus Corvus Bon choix de brush hehe, le rendu aquarelle et les couleurs fonctionnent bien ! ça a un côté doux et matinal c'est joli. @Yun77 Supers nuages effectivement ! J'aime bcp également les tons un peu plus froids que tu as utilisé pour la première peinture, ça contraste bien avec les orangés. @Domny belle reproduction, les couleurs et la composition sont très proches de l'originale ! Pour ma part je me suis également donné une limite de 1h et j'en ai profité pour tester les brush de Justin Gerard que j'ai découvert récemment grâce aux compilations de @J-L(merci❤️) . J'ai utilisé un brush texturé pour faire l'ensemble de la peinture et un mixer brush pour lier le ciel majoritairement (pas facile à contrôler d'ailleurs).3 points
-
3 points
-
Bonjour, Voici mon étude (ma toute première!) . Je me suis fixé une limite d'une heure et j'ai finalement passé plus de temps à chercher les bons brush qu'a réellement dessiner... En revenant dessus après ma pose café, je me rend compte qu'il est plus clair que l'original, et pas tout a fait juste dans les couleurs.3 points
-
Un artiste que j'ai découvert récemment avec les compilations de J-L ! Je trouve ses monstres vraiment incroyables, il a une technique assez laborieuse mais qui donne au final un rendu exceptionnel. Généralement il commence avec des sketchs très rapides au crayon puis il dessine avec crayons/critérium 2h puis hb son personnage détaillé. Il ombre au graphite seulement les zones vraiment sombre mais laisse les zones plus neutres moins travaillées pour les compléter au digital par la suite. Ensuite il à un système qu'il a appelé "the cycle" qui consiste majoritairement à venir mettre des couches de couleurs en mode produit avec des brushs texturés (qu'il crée lui même) pour ombrer et colorer son personnage puis avec lumière tamisé et superposition il crée ses lumières, réhauts et ajoute de la texture ainsi que de la couleur puis avec des calques normaux il lie le tout avec ses brushs et mixer brushs. Son patreon est très fournit en tutos et procédés (et brushs hehe) , c'est vraiment chouette et il a une personnalité assez jovial dans ses streams c'est agréable à suivre. Et il est bcp dans le partage et ça fait très plaisir.2 points
-
2 points
-
Alors quand je disait repères ce sont ceux de construction suivant Reilly ou Loomis pour d'autres 😉 . Sans cette construction préalable c'est quand même chaud d'avoir la bonne construction d'un visage non ? Effectivement, je suis d'accord avec toi les repères de positionnement avec lignes horizontales et verticales + mesure limitent la progression 🙂 Bien joué pour ton portrait en tout cas il est top.2 points
-
OpenJourney (quand MidJourney alimente son propre piratage) Bon, c’est de notoriété publique maintenant, les IA s’entraînent sur la base d’images récoltées sur le web en faisant fie des droits d’auteurs. Le gag dans tout ça, c’est que les gens ont tellement bombardé le net d’images générées par IA… Qu’on peut utiliser ces mêmes images pour entraîner de nouvelles IA. C’est ce qui se passe avec OpenJourney. Il s’agit d’un modèle issu de Stable Diffusion entraîné avec 60 000 images supplémentaires toutes générées par Midjourney, reproduisant ainsi le style le plus couramment généré par cette IA. Du coup, avec l’interface graphique que vous venez d’installer, vous pouvez simuler MidJourney en toute gratuité. 8D Le modèle est disponible au téléchargement ici : https://huggingface.co/prompthero/openjourney-v2 Des exemples de prompt sont fournis ici : https://prompthero.com/openjourney-prompts?utm_source=huggingface&utm_medium=referral Voici 2 petits exemples de test. C’est pas encore aussi pointu que MidJourney mais le petit monde de Stable Diffusion est très actif. Je ne doute pas que ça va progresser petit à petit. Bref ! Tout ça pour dire que le milieu open source s’est vite emparé de la question des IA et qu’elles ne sont pas du tout le monopole de quelques grosses entreprises de la tech. On voit d’ailleurs apparaître plein de boîtes qui se lancent là-dedans en proposant des interfaces en ligne, mais il faudra qu’elles proposent d’autres choses en plus si elles veulent que leur modèle économique soit viable. Pour l’heure, je ne vois pas l’intérêt de payer pour générer des images par IA alors que je peux faire ce qui me chante sans dépenser un rond. La conclusion du jour Pour conclure, je vous propose une petite digression. En ce moment je suis en train de revisionner Star Trek, la série originale. Le truc incroyable, c’est qu’après plus de 50 ans, la plupart des sujets abordés sont toujours d’actualité et même plus que jamais lorsqu’il s’agit de la relation entre l’homme et la technologie. Les questions débattues aujourd’hui à propos de l’IA étaient déjà abordées dans un certain nombre d’épisodes qui finissent par relever de l’anticipation. En voici quelques-uns mémorables. Dans l’épisode Cour Martiale (Saison 1), le capitaine Kirk est accusé d’avoir tué un membre de son équipage par négligence. Le verdict est sur le point d’être rendu sur la base du témoignage de l’ordinateur de l’Enterprise jusqu’à ce que l’avocat de Kirk reproche la confiance aveugle accordée à l’ordinateur et qu’on se rende compte qu’il a été trafiqué. Résumé de l’épisode sur Wikipédia : https://fr.wikipedia.org/wiki/Cour_martiale_(Star_Trek) Aujourd’hui on expérimente pour la première fois une IA pour remplacer un avocat : https://intelligence-artificielle.developpez.com/actu/340687/Le-premier-bot-avocat-booste-a-l-IA-va-representer-un-accuse-devant-le-tribunal-le-mois-prochain-S-il-venait-a-perdre-l-entreprise-derriere-sa-conception-s-engage-a-couvrir-les-amendes/ Dans Unité Multitronique (Saison 2), le prototype d’un super ordinateur intelligent est installé sur l’Enterprise pour remplacer l’équipage. La question s’il est souhaitable que la machine remplace l’homme partout est abordée tout au long de l’épisode. On se rend compte que cette technologie n’est pas au point et l’expérience part en sucette. Finalement, s’il peut être intéressant d’automatiser certaines tâches, il reste important que l’être humain reste aux commandes. Résumé de l’épisode sur Wikipédia : https://fr.wikipedia.org/wiki/Unité_multitronique Notez qu’au cours de l’épisode, Kirk essuie une insulte le qualifiant d’inutile qui n’est pas sans rappeler certains messages purement gratuits qu’ont reçus certains artistes de la connaissance de Magali Villeneuve avec l'émergence des IA de génération d’images en 2022 : Faut vraiment cultiver une sacrée jalousie crasse et être mal dans ses baskets pour en arriver à dire des méchancetés pareilles à des gens qui n’ont rien demandé. 😕 Et enfin, plus généralement à propos de la technologie et de l’homme, dans Mission : Terre (Saison 2), qui était un pilote déguisé pour un projet de série qui n’a finalement jamais vu le jour, un extraterrestre du nom de Gary Seven est envoyé secrètement sur Terre pour empêcher l’humanité de basculer dans une guerre nucléaire autodestructrice. Au cours de l’épisode, Gary fait le constat que tout scientifique digne de ce nom a dû faire au moins une fois dans sa vie : le progrès social de l’humanité n’est pas à la hauteur de son progrès technologique ce qui engendre un risque d’autodestruction. Résumé de l’épisode sur Wikipédia : https://fr.wikipedia.org/wiki/Mission_:_Terre Ça me rappelle une vidéo que Spartan avait partagée dans la newsletter et où il est dit "l'Homme a un cerveau de primate et une technologie de dieu" et qui explique comment la nature du cerveau humain entrave à résoudre la crise climatique : Voilà ! J’ai fait mon petit prosélytisme de trekkie. x) Demain je vous proposerai un exemple de workflow intégrant Stable Diffusion que j’ai testé sur un projet d’illustration. Bonne journée tout le monde ! 😄2 points
-
2 points
-
2 points
-
2 points
-
2 points
-
2 points
-
1 point
-
En faisant un portrait après l'autre, comme nous tous 😉 Tu vas y arriver ! A part ça, je pense que la strat de @Yun77est bien pensée : plutôt que d'essayer de rattraper une cinquantaine de portraits, pourquoi ne pas reprendre maintenant au portrait du jour, puis de t'arrêter en mars 2024 en commençant l'année avec la réf numéro 1 ('fin pas tout à fait puisque tu as déjà commencé à rattraper) ? Peut-être que ça t'enlèverait ce poids du rattrapage en plus de nous suivre sur les portraits quotidiens 🙂 Mais après, c'est toi qui vois ! A tout de suite pour le portrait de demain !1 point
-
Craiyon (Dall-E Mini) L’ancien nom prête à confusion (et c’est pour ça qu’il a été changé) mais Dall-E Mini n’a en vérité pas de rapport avec Dall-E. Derrière ce projet il y a une petite équipe qui semble faire ça sur temps libre. Quand la première version de Dall-E est sortie, ils ont trouvé ça trop chouette et ils se sont dit qu’il était important qu’une variante open source existe pour que cette technologie ne soit pas le monopole des géants de la tech. https://www.craiyon.com/ Ce service est totalement gratuit, mais on peut payer un abonnement pour obtenir des temps de calcul plus rapides et aider au financement des serveurs. La V2 a été mise en ligne courant février 2023. La version précédente est toujours disponible dans un coin de web : https://huggingface.co/spaces/dalle-mini/dalle-mini Fonctionnalités disponibles : -Texte vers image Et c’est repartie pour une série de tests. Commençons par les tentatives de peinture. Prompt : classical oil paint of a jungle and water fall above a small lake, midday, by claude joseph vernet Prompt : classical oil paint of a very detailed realistic medieval castle, by claude joseph vernet Prompt : classical oil paint of a very detailed realistic snowy mountain, by claude joseph vernet Prompt : classical oil paint a of cloudy sky, by claude joseph vernet Prompt : classical oil paint of a very detailed futuristic starship, by claude joseph vernet Prompt : classical oil paint of a a very detailed futuristic warrior with golden armor, by claude joseph vernet Prompt : classical oil paint of a homosexual couple hugging each other, by claude joseph vernet Alors, vu de loin, le rendu peinture fonctionne plutôt bien. On commence déjà à voir quelques difficultés avec l’architecture et les personnages. Pour le vaisseau spatial, par contre, il est assez perdu. Il faut pas trop regarder de près parce que clairement, la finition, ce n’est pas son point fort comparé aux autres IA. Passons ensuite au dragon à pois. Prompt : blue dragon with orange spots Pour ce premier jet, c’est très très abstrait. Faisons d’autres essais avec des informations de style supplémentaires. Prompt : professional illustration of a blue dragon with orange spots, cartoon style Pour le style cartoon, même si la finition n’est pas du niveau de Midjourney, c’est le plus réussi en matière de respect du prompt. Prompt : professional illustration of a blue dragon with orange spots, comics style Prompt : professional illustration of a blue dragon with orange spots drawn by michael turner Pour ce qui est du style comics, là ça coince. Prompt : photorealistic very detailed blue dragon with orange spots Prompt : a photo of a majestic dragon Crayon s’en sort bien sur les rendus photoréalistes, mais l’aspect fantasy se perd au profit du domaine animalier ou des statues de temple. Prompt : a photo of a majestic fantasy dragon Ça devient plus compliqué lorsqu’on demande quelque chose qui relève de l’imaginaire. Passons aux épreuves plus compliquées. Prompt : goku making kamehameha Prompt : goku making kamehameha drawn by toriyama Prompt : goku making kamehameha in TOEI style L’anatomie est évidemment toute pétée, mais il y a des tentatives d’approcher la pose du Kaméhaméha. Les personnages sont à peu près reconnaissables ainsi que le style aussi. Ensuite, les âneries avec Poutine. Prompt : vladimir putin drawn by akira toriyama Il essaye bien de dessiner Poutine, mais pour le style Toriyama, on repassera. Prompt : Goku fighting Putin on a ring Pour le combat Goku vs Poutine, il y a quelques images où il a bien essayé de respecter le prompt. Et enfin, le crash test final : le câlin entre Hamilton et Verstappen ! Prompt : Lewis Hamilton and Max Verstappen hugging each other Et bien en fait, bien que la finition soit en dessous des autres, niveau respect du prompt c’est vraiment l’IA qui réussit le mieux ! Les pilotes sont reconnaissables et les combinaisons aussi. Mention spéciale pour la dernière qui a carrément inverser les combinaisons associant Hamilton à RedBull et Verstappen à Mercedes. Je crois que je tiens un meme en or ! x’D Maintenant attaquons la falaise Stable Diffusion !1 point
-
1 point
-
Merci pour ce super retour ! Il est vrai que j'étais en difficulté pour la partie décomposition de la feuille ! Pour ce qui est des couleurs, il semblerait que ce soit mon point faible principal (C'est la 3eme fois qu'on me fait la remarque). À travailler... Merci du coup de pouce !1 point
-
1 point
-
Hello @kevin_amiel, il est trop chouuuuuuuuu ce petit lézard ! Je ne vois pas le problème par contre en ce qui concerne le volume, je trouve au contraire que tu t'es bien débrouillé. Pour le poivron, tu as fait un bon boulot aussi ! Attention à mon avis à la partie supérieure qui est un peu trop uniforme et un peu trop saturée. Tu peux peut-être aussi adoucir la transition entre la lumière bleue réfléchie et le reste. Mais (en simple qualité de copain de DPS) je trouve que tu taffes bien, continue comme ça ! Et tant mieux si ça te donne un boost de te voir accomplir ces choses-là, c'est ce qu'il faut ! 💪1 point
-
@Suisei Tes explications sont vraiment super, merci beaucoup. 😃 J'espère que tu continueras à nous fournir des informations sur le sujet et sur l'avancée de ton projet. Coder une IA semble vraiment difficile, en tout cas pour moi. Sur la chaîne Machine Learnia les explications sont très claires (il y a d'ailleurs des explications sur les calculs avec les matrices), mais j'ai déjà eu du mal avec le début de la première vidéo où on commence à coder en python, donc je ne suis pas sûre que je vais réussir ne serait-ce qu'à suivre le tuto jusqu'au bout. Je trouve en tout cas très intéressant de comprendre comment ça marche. On entend aussi beaucoup parler ces temps-ci de ChatGPT qui génère du texte, et j'ai trouvé cette vidéo qui explique un peu son fonctionnement et ses limitations. Est-ce que c'est le même principe où y a-t-il beaucoup de différence avec les générateurs d'image ? Il y aussi de l'IA dans les appareils photo et dans pas mal de logiciels, que ce soit Photoshop ou d'autres, ça se voit moins mais ça permet de rendre plus rapide certaines opérations comme la sélection de sujets, le détourage... J'ai vu plusieurs vidéos où les photographes s'inquiètent également de l'utilisation de leurs images et de leur remplacement éventuel par des IA, en particulier pour des travaux sans trop de valeur ajoutée comme la photo de produit. J'ai trouvé aussi un add-on de Stable-diffusion pour Blender, pour mixer 3D et IA, et PIFuHD qui permet de transformer une simple photo en modèle 3D. Le résultat dépend de la photo de base, mais c'est assez impressionnant quand même. Par contre, ça fait un maillage assez pourri qui n'est pas facile à rigger ensuite.1 point
-
Questions réponses @Xuan Alors, en fait, il ne faut pas s'inquiéter du fait de pouvoir créer des IA depuis ses charentaises. 🙂 Il faut distinguer plusieurs choses : Premièrement, on ne peut pas créer n’importe quelle IA sur son ordi perso. On peut faire ça avec un projet très spécialisé qui requiert peu de données (les données d’entraînement de mon projet occupe 800 Mo d’espace disque), mais on ne peut pas créer de projet aussi ambitieux que Midjourney ou Dall-E comme ça, la quantité de données d’entraînement est beaucoup trop grosse (la base de données qui a servi fait dans les 240 To, il faut beaucoup beaucoup de disques durs ! ). x) Mon ordi a mis plusieurs jours pour entraîner une IA basée sur 800 Mo de données, donc imagine un peu avec 240 To, il lui faudrait plusieurs millénaires pour y parvenir ! x) Secondement, il ne faut pas confondre créer une petite IA en copiant le code de tutos sur Internet et créer de nouveaux algorithmes. Il s’agit de 2 niveaux de compétences bien différents ! Je n’ai pas encore ce niveau d’expertise (si tant est que je l’atteigne un jour). Bref ! C’est pas demain que quelqu’un pourra créer un Midjourney tout seul chez lui. Même avec tout le génie du monde, y’a un moment, il faut du temps et de l’argent pour récolter masse de données et il faut du matos qui n’est pas à portée financière du particulier. A propos de la simplicité du deep learning. Alors en vrai, la complexification, c’est déjà fait. A tel point qu’on tombe plus facilement dans le cas du surentraînement que dans le cas du sous-entraînement même avec une machine perso. Si bien qu’on est obligé de revenir en arrière et de simplifier à nouveau pour avoir un bon compromis. Souviens-toi de la droite et de la courbe ultra complexe. On ne peut pas atteindre la perfection par principe. Si on complexifie le modèle, il sera très bon pour recracher les données d’entraînement par cœur, mais il sera complètement paumé quand il s’agira de travailler avec des données nouvelles. Donc on est obligé d’utiliser un modèle plus simple. Il sera, certes, plus approximatif avec les données d’entraînement, mais il sera moins paumé avec les données nouvelles. Le seul moyen d’améliorer le résultat, c’est d’améliorer la qualité des données au jus de coude. Et ça, y’a pas assez de main d'œuvre pour ça. J’explique plus loin pourquoi. En fin de compte, la force du deep learning se situe dans sa simplicité. C’est ce qui lui permet d’être utilisé dans n’importe quel domaine (imagerie, musique, médecine, finances...). La prochaine évolution de l’IA, je ne saurais dire pour quand c’est, mais je pense que ce sera l’ordinateur quantique parce qu’il permettra de traiter de grands volumes de données plus vite et en consommant moins d’énergie. Il commence à y avoir des prototypes, mais les difficultés de conception sont telles qu’on ne verra pas ça sur le marché avant longtemps. Mais ça ne changera pas la problématique de la qualité des données. Pour Midjourney & co, il faudra se taper le boulot à la mimine. Ordinateur quantique ou pas. x) @m100 Pour répondre à ta question, oui, mon IA n’est capable de traiter que des carrés de taille 1024x1024 pixels. Par contre, mon programme, lui, accepte des images de n’importe quel format. Pour être plus précise, le programme qui génère un encrage se découpe en 3 parties. La première partie du programme découpe le crayonné en carrés de 1024x1024 pixels. Si certains carrés ne son pas entier, il ajoute des pixels blanc pour les compléter. La seconde partie, c’est l’IA. Elle génère un encrage sur chacun des carrés de 1024x1024 pixels. Et enfin, la dernière partie du programme assemble les carrés encrés et coupe les pixels blanc en trop pour retrouver le même format que le crayonné d’origine. Dans mon dataset d’entraînement actuel, toutes les images font 1024x1024 pixels. Je suis en train d’étudier mes bouquins pour trouver une solution pour pouvoir entraîner mon IA sur des formats d’image variés. @Laurence Veron-Dor On peut faire du deep learning avec du Javascript, mais c’est vrai que c’est moins répandu et moins documenté qu’en Python. Je connaissais pas du tout Gaugan. Je vais regarder ça pour tester. Ça a l’air intéressant vu ce que tu montres. 😄 Ça tombe à pic que tu cites précisément ces 2 IA là @otsoa. Elles illustrent toutes deux très bien ce que j’expliquais plus haut à @Xuan. 😄 Dall-E Mini (qui s’appelle maintenant Craiyon) est basé sur une génération plus ancienne d’IA. Donc c’est normal que les rendus soient beaucoup plus approximatifs. Stable Diffusion, j’en ai testé plusieurs versions, en ligne comme en local. Cette IA propose certes les meilleurs rendus du marché actuellement. Mais comme tu le précises : il faut trouver les bonnes combinaisons pour ça. On ne peut pas obtenir ce qu’on veut si on a le malheur d’avoir une idée précise en tête et encore moins avec un style qui sort des standards. Quand je lui demande un digital painting de décor de nature, oui, j’obtiens des résultats sympas, mais si je demande une interaction précise entre des personnages, du pixelart ou dessin vectoriel, là, ça devient fastidieux. C’est même pire que ça, il peut même me donner des trucs que je n’ai pas du tout demandés. Des waifu par exemple. Des waifu très réussies d'ailleurs… Mais je n’ai jamais demandé de waifu, ni de près, ni de loin ! 🤣 Stable Diffusion a clairement un pied dans le surentraînement. Et ça ne va pas s’arranger. Leur méthode d’amélioration est basée sur le fait que des utilisateurs volontaires notent les images générées de 1 à 10. Ça permettra peut-être d’améliorer encore un peu la qualité des rendus, mais ça va rigidifier de plus en plus la liberté créative. Inversement, Dall-E Mini, certes, ses rendus sont vachement moins beaux et vachement moins aboutis, mais il essaye toujours de me fournir ce que je lui demande. Quand je demande un kaméhaméha, il arrive à me proposer des poses qui s’en rapprochent (Stable Diffusion, rien de chez rien malgré des dizaines d’essais avec des prompts variés), quand je demande du pixel art il arrive à systématiquement me proposer quelque chose qui ressemble à du pixelart (Stable Diffusion c’est un coup oui un coup non), quand je lui demande du dessin vectoriel il arrive à me proposer quelque chose qui ressemble à du dessin vectoriel (Stable Diffusion me propose parfois un genre de papier peint). Bref, je pense que Stable Diffusion a atteint ou est proche d’atteindre le mur de progression qui ne peut pas être franchi avec la méthode de récolte et de traitement actuelle des données d’entraînement. Il va falloir changer d’approche pour mener les IA plus loin. Les données d’entraînement, parlons en justement. Ce n’est pas une boîte noire en vérité. 🙂1 point