Documentation Index
Fetch the complete documentation index at: https://stix.mintlify.app/llms.txt
Use this file to discover all available pages before exploring further.
Mode Expert et paramètres avancés
Le Mode Expert d’Amuse dévoile une interface complète pour les utilisateurs qui souhaitent un contrôle total sur la génération d’images, la gestion des modèles et l’automatisation. Ce guide vous explique chaque fonction.Activer le Mode Expert
- Dans l’interface principale, cliquez sur le bouton “Expert Mode” (généralement en bas à gauche).
- L’interface se transforme : un nouveau panneau avec plusieurs onglets apparaît (Text to Image, Image to Image, Paint to Image, Upscaler, etc.).
Model Manager (gestion des modèles)
C’est le cœur du Mode Expert. Vous y trouvez tous les modèles installés sur votre machine.Interface du Model Manager
- Liste des modèles : affiche le nom, la taille, l’emplacement, et un bouton “Settings” pour chaque modèle.
- Bouton “Install” : pour télécharger de nouveaux modèles depuis la bibliothèque intégrée ou importer un fichier (ONNX, GGUF).
- Bouton “Delete” : pour supprimer un modèle (libère de l’espace disque).
Installer un modèle depuis Hugging Face
- Cliquez sur “Install”.
- Choisissez l’onglet “From Hugging Face”.
- Entrez l’identifiant du modèle (ex:
amd/sd3.5_large_amdgpupour les modèles AMD optimisés, oustabilityai/sdxl-turbo). - Sélectionnez le format (ONNX recommandé sur AMD).
- Cliquez sur “Download”. Le modèle est téléchargé et automatiquement optimisé.
La collection AMD sur Hugging Face propose des modèles suffixés
_amdgpu spécialement optimisés pour les GPU Radeon et les NPU Ryzen AI.Paramètres d’un modèle (Settings)
En cliquant sur “Settings” à côté d’un modèle, vous pouvez :- Changer le périphérique d’exécution : CPU, GPU, NPU (si disponible).
- Ajuster l’utilisation mémoire : minimale, équilibrée, maximale (cela peut accélérer ou réduire les risques d’erreur “out of memory”).
- Forcer le backend : DirectML, ROCm (sur Radeon), ou ONNX Runtime.
Onglets de génération avancée
Text to Image
L’onglet principal pour générer des images à partir d’un texte. Vous y retrouvez :- Prompt et Negative Prompt (ce que vous ne voulez pas voir).
- Modèle : sélectionnez celui qui vient d’être installé.
- Dimensions : réglage manuel (largeur, hauteur).
- Seed : valeur fixe pour reproduire exactement la même image.
- Steps : nombre d’étapes de débruitage (par défaut 20-30).
- CFG Scale : force d’adhésion au prompt (7 à 9 recommandé).
- Sampler : algorithme d’échantillonnage (DPM++ 2M Karras est un bon choix).
Quelques combinaisons efficaces
Quelques combinaisons efficaces
- Rapide : SDXL Turbo, 1 step, CFG=2 (modèle spécifique).
- Standard : SDXL, 20 steps, sampler DPM++ 2M Karras, CFG=7.
- Haute qualité : SD 3.5 Large, 40 steps, CFG=9, sampler Euler.
Image to Image
Partez d’une image existante pour en générer une variante.- Upload : chargez votre image.
- Denoising strength : de 0 (identique) à 1 (complètement nouvelle). 0,6 donne un bon équilibre.
- Le reste des paramètres est identique au Text to Image.
Paint to Image (Inpainting)
Permet de redessiner une partie d’une image.- Chargez une image.
- Utilisez le pinceau pour masquer la zone à modifier.
- Ajoutez un prompt décrivant ce qui doit apparaître dans cette zone.
- Générez : seule la zone masquée est recréée.
Upscaler
Agrandissez une image générée (ou externe) avec un modèle d’upscaling.- Chargez l’image.
- Choisissez le facteur d’agrandissement (2×, 4×).
- Sélectionnez un modèle d’upscaling (ex: Real-ESRGAN).
- Générez.
Sur les Ryzen AI, l’option AMD XDNA Super Resolution (disponible dans le Mode EZ) est plus rapide et économe, car elle utilise le NPU.
Feature Extractor
Extrayez des cartes de caractéristiques (canny, openpose, depth) pour une utilisation avec ControlNet. Ces cartes peuvent ensuite être réinjectées dans Image to Image pour guider la génération (posture, contours, profondeur).Automation et scripts
Dans le Mode Expert, vous avez accès à un onglet “Automation” (selon la version). Vous pouvez :- Exécuter un workflow : enchaîner plusieurs opérations (ex: générer → upscaler → appliquer un filtre).
- Exporter un script Python : Amuse peut générer un script qui reproduit les paramètres actuels, utile pour l’intégration dans vos propres programmes.
- Batch processing : générer des images en lot à partir d’un fichier CSV de prompts.
Dépannage avancé
| Problème | Solution |
|---|---|
| Le modèle sélectionné ne s’affiche pas dans la liste | Vérifiez qu’il est bien installé (Model Manager). Sinon, installez-le. |
| Erreur “Device not available” | Dans les paramètres du modèle, changez le périphérique (CPU → GPU → NPU) jusqu’à trouver celui qui fonctionne. |
| L’optimisation d’un nouveau modèle échoue | Libérez de l’espace disque (au moins 20 Go) et de la RAM. Fermez les autres applications. Redémarrez Amuse. |
| L’upscaler plante | Utilisez un modèle d’upscaling plus léger (ex: Real-ESRGAN_x2plus) ou baissez la résolution de l’image d’entrée. |
Pour aller plus loin
- Intégration avec Python : le backend d’Amuse (v3.3.0+) expose une API Python. Vous pouvez écrire des scripts qui utilisent les modèles installés.
- LoRA adapters (bientôt) : permettra de charger des poids fine‑tunés pour personnaliser le style.
- Z-Image / FLUX2 : prochains modèles supportés.
Résumé des possibilités
- Mode Expert = contrôle total.
- Model Manager : installez, gérez, paramétrez vos modèles.
- Onglets : Text to Image, Image to Image, Paint to Image, Upscaler, Feature Extractor.
- Automation : workflow et scripts.
Des questions sur une fonction précise ? L’assistant IA Mintlify peut vous guider.