Classement
Contenu populaire
Affichage du contenu avec la meilleure réputation le 08/24/2023 dans Messages
-
7 points
-
7 points
-
6 points
-
6 points
-
6 points
-
6 points
-
5 points
-
Bienvenue par ici @Lagoon Feather! Très belle première série, mais ne va pas t'épuiser à essayer de trop rattraper ! Un par jour, c'est déjà plus que bien ! 😉 !!! => PETIT TIPS A LIRE POUR TOUT LE MONDE <= !!! Histoire de ne pas trop surcharger le serveur, je vous propose d'uploader vos images un peu plus petites que la taille originelle. Petit tuto sur comment faire : 1. Glissez l'image que vous voulez ajouter en bas de votre post, ou faites-le en cliquant sur "Choisir les fichiers". 2. Cliquez sur le petit bouton "Insert" : l'image s'insérera dans le texte à l'endroit où se trouve votre curseur actuellement. 3. Double-cliquez sur l'image dans votre texte : une petite fenêtre apparaîtra. 4. Vérifiez que la case "Conserver le ratio d'origine" soit cochée, comme sur l'image ci-dessus, et modifiez la largeur. Dans l'idéal, avec 600 de largeur, votre image apparaîtra suffisamment grande pour que l'on puisse l'apprécier à sa juste valeur tout en épargnant le serveur et les connexions les plus récalcitrantes 🙂 . Je précise que je me permets de poster des réfs en taille originale histoire que, de votre côté, vous puissiez la télécharger directement et zoomer dedans à votre guise pour avoir tous les détails nécessaires 🙂 . Merci d'avance pour vos efforts ! Et avec tout ça, je vous transmets la réf du jour ! 🙂 Have fun !4 points
-
3 points
-
Bonjour et enchantée, Après plusieurs blocages mais avec une touche de "lâcher-prise" voici mon dessin d'imagination référence pour la suite du programme. J'ai essayé de laisser mes angoisses au placard pour retranscrire un peu de douceur. J'illustre ici un désir de laisser les choses sortir par petits poissons un peu comme les graines que l'on sème. Mes petits bouts d'espoir quoi XD. Merci d'avoir lu, et j'ai hâte de continuer a voir d'autres petits poissons nager dans l'avancement du programme.2 points
-
2 points
-
Merci @violaine! De retour de vacances !!! Enfin ! Je rongeais mon frein (même si c'était excellent) !! J'ai rapidement désaturé le brun des montagnes via mon masque de teinte/saturation comme suggéré par @Lionel Art . Et du coup, exercice suivant, celui de la fleur : J'ai galéré sur la grande feuille et je n'en suis toujours pas satisfait... peut-être que j'y repasserai un coup dessus plus tard. L'exercice est plus rapide que celui des montagnes mais j'ai trouvé les textures beaucoup plus techniques sur les nervures. Merci pour le tuto de Talespin.2 points
-
2 points
-
Hello ! Merci @mymdessine, c’est toujours un plaisir de partager mes petites découvertes. 😄 Ouais, en effet, quand on découvre le monde de Stable Diffusion, c’est pas évident de s’y retrouver. x) Sur civitai, on trouve majoritairement des modèles à télécharger. Il faut ensuite les installer dans une interface graphique comme Automatic1111 (la plus populaire en ce moment) ou ComfyUI (qui gagne de plus en plus de terrain). La difficulté, c’est qu’il y a en de plusieurs types. Il y en a qui sont complets et peuvent être utilisés tout seul, d’autres qui doivent être utilisés en combinaison avec un modèle de base. Bref ! Pas étonnant que MidJourney reste plus populaire malgré ses limites. La liberté de Stable Diffusion s'acquiert au prix d’une courbe d’apprentissage assez raide. @Laurence Veron-Dor, Je n’ai toujours pas réussi à faire fonctionner Automatic1111 sur Linux, mais j’ai réussi avec une autre interface (qui me plait davantage à titre personnel) : ComfyUI. ComfyUI est beaucoup plus permissif sur les numéros de version de Python et des modules Python. J’en profite pour proposer un petit tuto d’installation à tout le monde. ComfyUI Si vous êtes habitués à Blender et son système nodal, vous ne serez pas dépaysés. En effet, ComfyUI propose un système nodal. Ça ressemble à ça : Alors pourquoi un système nodal ? Et bien parce que Stable Diffusion permet de faire des choses plus complexes que simplement générer une image à partir d’un prompt : on peut contraindre la génération avec des options supplémentaires comme ControlNet, passer les image d’entrée par des pré-traitement, passer les images de sortie par des post-traitements… En fait, les possibilités sont à peu près infinies. L’idée est donc de programmer tout un workflow en fonction de ses besoins. Sous Windows Sous Windows, c’est simple, il y a un exécutable portable à télécharger sur cette page : https://github.com/comfyanonymous/ComfyUI Vous allez trouver une archive du nom de ComfyUI_windows_portable_nvidia_cu118_or_cpu.7z dans votre dossier de téléchargements. Ouvrez la avec votre logiciel de désarchivage préféré (Express Zip par exemple). Vous obtiendrez un dossier ComfyUI_windows_portable_nvidia_cu118_or_cpu à l’intérieur duquel vous trouverez un dossier ComfyUI_windows_portable à l’intérieur duquel vous trouverez 2 lanceurs : run_cpu.bat et run_nvidia_gpu.bat Si vous avez une carte graphique NVIDIA récente, double cliquez sur run_nvidia_gpu.bat, sinon, double cliquez sur run_cpu.bat. Une console DOS va s’ouvrir et va vous proposer d’ouvrir un lien. Cliquez sur votre navigateur préféré dans la liste des programmes proposés. Et voilà ! Une interface avec quelques nœuds par défaut s’ouvre dans votre navigateur. Notez que comme pour Automatic1111, les modèles ne sont pas fournis il vous faut donc les télécharger et les installer vous-même. Vous pouvez en télécharger sur HuggingFace ou civitai. Vous pouvez, par exemple, télécharger le modèle de base de la version 1.5 de Stable Diffusion, ici : https://huggingface.co/runwayml/stable-diffusion-v1-5/tree/main Et télécharger le fichier v1-5-pruned-emaonly.ckpt Ensuite, dans le dossier ComfyUI_windows_portable où vous avez trouvé les 2 lanceurs, il y a un dossier models qui contient un dossier checkpoints. C’est ici qu’il faut déposer les modèles de type ckpt. Sous Linux Sous Linux il faut mettre un peu plus les mains dans le cambouis, mais c’est pas méchant. On va partir de zéro dans le cas où vous êtes novice. Vous commencez par ouvrir une fenêtre de terminal. Si vous n’avez pas installé Python, entrez cette commande : sudo apt-get install python3.10 Ceci installera la dernière version disponible de python 3.10. Ça fera l’affaire. Ensuite, il faut installer le gestionnaire de version git avec cette commande : sudo apt install git-all Au cas où vous voudriez travailler sur plusieurs projets python qui exigent des versions de modules différentes, il va falloir que vous puissiez créer des environnements virtuels. Pour cela il faut installer l’utilitaire virtualenv avec cette commande : pip install virtualenv Maintenant, vous pouvez vous positionner dans le dossier où vous voulez installer ComfyUI avec une commande de cette forme : cd chemin/de/mon/dossier Il faut récupérer le code source de ComfyUI avec cette commande : git clone https://github.com/comfyanonymous/ComfyUI.git Vous avez dû récupérer un dossier nommé ComfyUI. Entrez dedans avec la commande qui suit : cd ComfyUI Créez un environnement virtuel venv : virtualenv venv Activez le (il faudra faire cette commande à chaque fois que vous voudrez lancer ComfyUI) : source venv/bin/activate Ensuite, on installe les modules python nécessaires avec ces 2 commandes : pip install torch torchvision torchaudio pip install -r requirements.txt Et enfin vous pouvez lancer ComfyUI avec cette commande python main.py Si vous n’avez pas de carte graphique NVIDIA assez récente, utilisez cette commande : python main.py –cpu Un message vous indique une URL à entrer dans la barre d’adresse de votre navigateur préféré : http://127.0.0.1:8188 Et voilà ! Comme sur Windows, les modèles ne sont pas fournis, il vous faudra donc les télécharger et les installer vous même. Dans le dossier ComfyUI, vous pouvez trouver le dossier models qui contient le dossier checkpoints où il vous faut déposer les modèles de type ckpt. C’est supposé fonctionner sur Mac aussi avec une installation quasi identique à Linux, mais j’ai rencontré un bug à la con au lancement. J’ai pas le courage de passer des heures à débuguer ça à l'instant. J’y reviendrai peut-être plus tard. Utiliser ComfyUI Je n’ai pas été au-delà des nœuds proposés par défaut étant donné que je code ma propre interface adaptée à mes besoins. Du coup, je vous propose une chaîne Youtube qui a fait quelques tutos sur cette interface pour que vous puissiez tester un peu plus le bidule. Péguy Diffuser Bon, j’en parle vite fait, ça y est, mon petit projet d’interface graphique pour Stable Diffusion est en cours de développement. Le premier jet de l’interface est fonctionnel. Maintenant il faut que je la branche à Stable Diffusion. Le boulot le plus délicat sera sans doute de rendre ça installable par n’importe qui sur son ordi perso. Voilà ce à quoi ça ressemble (je changerai sûrement le design pour quelque chose de sombre puisque c’est la norme actuellement) : L’idée est de pouvoir appliquer facilement le workflow que je vous ai déjà présenté : avec un système de calques et la possibilité de découper des petits carrés dans les images pour filtrer de petits morceaux et de pouvoir exporter les résultats dans un fichier psd qu’on aura juste à ouvrir dans son éditeur d’image préféré pour le retoucher et repeindre par dessus. A terme je vais essayer de faire en sorte qu’on puisse déjà dessiner et peindre un peu directement dedans. Voilà voilà pour aujourd’hui ! Bonne soirée tout le monde ! 😄2 points
-
2 points
-
2 points
-
2 points
-
Bonjour à toutes et à tous, Voici mon dessin d'imagination, réalisé aux crayons à papier et liners. J'ai essayé de sortir de ma zone de confort avec un thème dark Fantasy + chevalier + travail en tradi . J'ai passé qq heures dessus entre les croquis , le dessin final et le rendu. C'est pas vraiment ce que j'avais en tête au début , surtout au niveau rendu mais j'ai trouvé que l'ajout des écailles et ombrages cachaient un peu la faiblesse du dessin ...😅 Toujours difficile d'accepter de montrer un dessin dont on est pas satisfait! Bref, il y a du boulot en perspective!1 point
-
1 point
-
Bonjour, Voici un digital painting d'imagination: Un robot. Je ne savais pas réellement quel brush utiliser alors j'ai surtout fait des lignes droites… Je dessine très peu par l'imagination de base. Le deuxième est un DP fait en 2021 avec une référence, pour les couleurs je les prenais à la pipettes sur l'image de références… J'ai un complexe avec ça, je suis daltonien... C'est pour cela que le robot est en noir est blanc. Bien à vous, Paul.1 point
-
T'inquiète pas @justice8 ! Je l'ai bien à l'esprit mais je compte faire une version plus réaliste, avec un concept d'armure un peu plus moderne, et une tête d'acteur connu. Mais pour l'instant je ne sais pas qui choisir (clooney, cassel, belmondo...) 😁 un truc à savoir en sculpture, après la construction des muscles, c'est toujours plus facile d'enlever de l'argile en adoucissant les volumes. ca se voit moins. 😎1 point
-
1 point
-
1 point
-
1 point
-
1 point
-
1 point
-
1 point
-
1 point
-
1 point
-
Bonjour, Merci pour le retour. Pour la feuille, c'est avec l'outil "courbe de Bézier" que j'ai essayé de la faire, et je suis tout à fait d'accord sur le manque de rondeur que j'ai obtenu. Je vais aller guettre sur les tips Krita au cas où je trouve une astuce pour mieux utiliser cet outil. En attendant, j'ai réalisé le croquis du crâne. J'ai bien aimé l'approche qui correspond à ce que je fais en traditionnel en utilisant une gomme mie de pain pour estomper les étapes plus grossières et une table lumineuse lorsque je veux obtenir ma line bien propre. Donc, j'étais contente de retrouver des automatismes du tradi dans cet exercice.1 point
-
1 point
-
Salut ! Bravo pour tes exercices, tu t'en sors bien 🙂 T'as déja un bon coup de brush et t'as l'air assez a l'aise avec les outils quelques petites remarques pour chipoter : Ca manque d'une touche de jaune sur le bonnet du personnage dans la neige et les bottes sont un peu sombre Sur la rose tu aurais pu prendre un bleu un poil plus saturé pour l'extrémité de la grande feuille de gauche Sinon pour le reste c'est vraiment propre J'ai remarqué que t'avais fais un 2eme post pour ton monstre, dans l'idée c'est mieux de tout mettre sur le meme post, ca évite de trop remplir le forum 😉 Je vais demander a @Mao Mornity de regrouper tes posts En tout cas ton petit monstre est bien réussi lui aussi Continues comme ça !1 point
-
Hello ! Tu t'es trompée de partie 😉 Tu dois poster sur le forum de la partie 2 chapitre 1 : https://digitalpainting.school/forum/forum/44-le-programme-2-maîtriser-le-dessin-dimagination/ Je vais demander a @Mao Mornity de déplacer ton sujet si possible, comme ça c'est propre1 point
-
1 point
-
1 point
-
Je te souhaite le bienvenu @Drozen 😌 Une belle aventure a débuté pour toi, elle sera semé d'embûches mais courage : chaque efforts aussi petit soit-il, paye toujours, donne-toi le temps qu'il faut pour faire grandir ta passion 🔥 No pression, que cela reste ton moment de plaisir de la journée ! Bon painting 🖌️ Kiss Lagoon1 point
-
En Attendant de corriger le crâne (en effet le flip horizontal permet de voir les erreurs voici mes 3 premiers croquis, le plus difficile à été les grenouilles, j ai aussi enlevé des détails sur l oiseau ça faisait trop chargé mais en réduisant leur opacité c’est déjà mieux, je n’ai pas réussi a faire la même torsion de son cou le mien fait plus plat . L utilisation du flip m’a permis de corriger la forme du visage du guerrier mais ce n’est pas facile, je pense que le visage est trop gros par rapport à la réf mes 3 prochains croquis vont je pense être plus compliqué deux sont des personnes1 point
-
Bienvenue S_M dans cette partie deux avec un beau projet pour le chapitre final. Bon brush.1 point
-
1 point
-
Tout a été dit par tes deux compères (que je remercie au passage !). Surtout, ne continue pas à faire pause tous les deux coups de brushs pour les reproduire à l'identique, il n'y aurait rien de pire. Mieux vaut être moins perfectionniste mais essayer par soi-même.1 point
-
1 point
-
1 point
-
1 point
-
1 point
-
1 point
-
1 point
-
1 point