La diffusion stable 3 est arrivée
Midjourney et Stable Diffusion ont été parmi les premiers générateurs d'images d'IA modernes capables de créer des images réalistes, mais récemment, le modèle DALL-E d'OpenAI est devenu plus populaire (en partie parce qu'il est gratuit). Stable Diffusion était remarquable car il permettait aux utilisateurs de générer des images localement sur leur PC. Aujourd'hui, Stable Diffusion 3 est disponible, ce qui le rend plus évolutif et plus puissant que jamais.
Stability AI a dévoilé Stable Diffusion 3 (SD3), son dernier modèle d'IA de génération d'images visant à rester compétitif malgré les récentes avancées de concurrents comme OpenAI et Google. SD3 introduit une nouvelle architecture promettant des performances améliorées sur diverses configurations matérielles. En exploitant des techniques telles que le « transformateur de diffusion » et la « correspondance de flux », le SD3 comprend entre 800 millions et 8 milliards de paramètres. La grande amélioration ici étant qu'avec un nombre variable de paramètres, il peut être utilisé sur une variété de matériels et ne le fait pas. oblige en fait à disposer d'un PC ultra puissant pour générer des images. Cependant, vous aurez peut-être toujours besoin d’une machine puissante pour obtenir les meilleurs résultats. Le maximum de 8 milliards de paramètres est en fait plus que ce que possède Stable Diffusion XL, et cela était déjà assez gourmand en ressources.
Notamment, l’entreprise met l’accent sur les mesures de sécurité et les met au premier plan dans cette annonce. À mesure que l’IA devient plus puissante, davantage d’efforts doivent être déployés pour garantir qu’elle ne puisse pas être utilisée de manière nuisible, et Stability AI en est bien conscient. Même si nous souhaiterions que l'entreprise soit un peu plus précise dans ce qu'elle fait pour s'assurer que l'IA ne nuise pas, elle a déclaré ce qui suit à ce sujet :
Nous avons pris et continuons de prendre des mesures raisonnables pour empêcher l'utilisation abusive de Stable Diffusion 3 par de mauvais acteurs. La sécurité commence lorsque nous commençons à former notre modèle et se poursuit tout au long des tests, de l'évaluation et du déploiement. En préparation de cette première version préliminaire, nous avons introduit de nombreuses mesures de protection. En collaborant continuellement avec des chercheurs, des experts et notre communauté, nous espérons innover davantage avec intégrité à l’approche de la sortie publique du modèle.
Si vous voulez l'essayer, vous devrez attendre un peu car il n'est pas encore disponible et nous n'avons pas de calendrier - c'est presque comme si l'entreprise s'était précipitée pour l'annoncer après avoir vu la concurrence imminente d'OpenAI et de Google. Vous pouvez cependant vous inscrire sur une liste d’attente ici.
Source : Stabilité AI, TechCrunch