Stable Diffusion software | |
---|---|
Genere | Elaborazione digitale delle immagini |
Sviluppatore | CompVis group LMU Munich; Runway; Stability AI |
Data prima versione | 22 agosto 2022 |
Ultima versione | Modello SDXL 1.0 (26 luglio 2023) |
Sistema operativo | Windows, MacOS, GNU/Linux, Solaris (non in lista) |
Linguaggio | Python |
Licenza | Creative ML OpenRAIL-M (licenza libera) |
Sito web | stability.ai/stable-image |
Stable Diffusion è un modello di apprendimento automatico profondo pubblicato nel 2022, utilizzato principalmente per generare immagini dettagliate a partire da descrizioni di testo, sebbene possa essere applicato anche ad altre attività come la pittura, la pittura esterna e la generazione di traduzioni da immagine a immagine guidate da un prompt di testo.[1]
Stable Diffusion è un modello di diffusione latente, una variante di rete neurale generativa profonda sviluppata dal gruppo CompVis alla LMU di Monaco. Il modello è stato rilasciato da una collaborazione tra Stability AI, CompVis LMU e Runway con il supporto di EleutherAI e LAION.[2] Nell'ottobre 2022, Stability AI ha raccolto 101 milioni di dollari in un round di investimenti guidato da Lightspeed Venture Partners e Coatue Management.[3]
Il codice di Stable Diffusion e i pesi del modello sono stati rilasciati pubblicamente.[4]
Stable Diffusion può funzionare sulla maggior parte dell'hardware dotato di una GPU discreta con almeno 10 GB di VRAM. Ciò ha segnato un allontanamento dai precedenti modelli proprietari di creazione immagini da testo come DALL-E e Midjourney, accessibili solo tramite servizi cloud.[5]
Nel novembre 2023 Stable AI lancia Stable 3D per la creazione di modelli 3D di oggetti complessi.[6]