Saisissez votre adresse électronique ci-dessous et abonnez-vous à notre lettre d'information

Diffusion vidéo stable

Diffusion vidéo stable : voici tout ce que vous devez savoir

Partagez votre amour

Vous savez peut-être déjà comment créer des images générées par l’IA à l’aide de Stable Diffusion. Désormais, vous pouvez également donner une nouvelle vie à ces images grâce aux graphiques animés générés par l’IA. Bienvenue à Écurie Vidéo La diffusion ce qui peut vous aider à transformer vos images statiques en vidéos dynamiques. Dans cet article, je vais vous faire part de tout ce qui est important concernant le Génération vidéo à diffusion stable et comment l'utiliser comme un pro.

Génération vidéo à diffusion stable 

Qu’est-ce que la diffusion vidéo stable Al ?

Comme vous le savez, Stable Diffusion est un modèle d'IA open source créé par Stability AI. Avec Stable Diffusion, vous pouvez générer des images en saisissant simplement des invites de texte. Désormais, avec la version vidéo de Stable Diffusion, vous pouvez convertir gratuitement vos images en courtes vidéos.

Le modèle d'IA prend l'image comme image source et crée des images ultérieures à l'aide d'une technique unique, connue sous le nom de diffusion. Idéalement, la technique ajoute divers détails (que ce soit pour l'arrière-plan ou l'objet) à une image source, ce qui en fait une vidéo. Stability AI a formé le modèle sur la base d'un large ensemble de vidéos et de photos réalistes, qui peuvent s'exécuter virtuellement ou sur un système local.

Qu'est-ce que la diffusion vidéo stable

Dans l'ensemble, Diffusion vidéo stable est un outil puissant qui peut vous aider à créer toutes sortes de vidéos, du contenu créatif au contenu éducatif. Bien qu'il ait été récemment publié, le modèle est encore en développement et devrait évoluer à l'avenir.

Comment utiliser la diffusion vidéo stable ?

Actuellement, vous pouvez utiliser la fonctionnalité vidéo de Stable Diffusion de deux manières : vous pouvez soit l'installer sur votre système, soit utiliser n'importe quelle application Web.

Option 1 : Essayez n'importe quel outil en ligne pour une diffusion stable

Depuis Vidéo AI à diffusion stable en vidéo gratuite La solution est une offre open source, divers outils tiers l'ont intégrée sur leurs plateformes. Par exemple, vous pouvez visiter le site Web : https://stable-video-diffusion.com/ et téléchargez votre photo. Une fois la photo téléchargée, l'outil l'analysera automatiquement et la convertira en vidéo.

Essayez n’importe quel outil en ligne pour une diffusion stable

C'est ça! En quelques secondes, l'outil en ligne générera une courte vidéo basée sur la photo téléchargée. Vous pouvez simplement prévisualiser la vidéo ici et la télécharger sur votre système.

Option 2 : Installation de Stable Diffusion sur votre système

Si vous souhaitez obtenir des résultats plus personnalisés (et non filtrés), vous pouvez également envisager d'installer le module AI à partir de Vidéo stable La diffusion sur votre système. Cependant, sachez que le processus est un peu technique et consommera des ressources informatiques importantes.

Conditions préalables:

  • Installez Python 3.10 ou supérieur sur votre système
  • Installez NVIDIA CUDA Toolkit 11.4 ou supérieur sur votre PC
  • Installez Git (pour exécuter le référentiel)
  • Cloner le Diffusion vidéo stable référentiel utilisant Git (ceci est partagé gratuitement par Stability AI) : https://github.com/AUTOMATIC1111/stable-video-diffusion

Étape 1 : Configurer l'environnement

Une fois que vous avez rempli les conditions ci-dessus, vous pouvez lancer la console Python sur votre système. Maintenant, vous pouvez exécuter les commandes suivantes une par une, qui créeront, activeront et installeront les dépendances requises sur votre système pour exécuter Stable Diffusion.

python3 -m venv venv

source venv/bin/activer

pip install -r exigences.txt

Étape 2 : Préparez l’entrée et générez votre vidéo

Une fois l’environnement opérationnel sur votre système, vous pouvez préparer une image d’entrée. Si vous n'avez pas d'image, vous pouvez utiliser l'IA de diffusion stable standard pour en créer une en saisissant du texte.

Pour générer la vidéo, vous pouvez simplement naviguer dans le diffusion-vidéo-stable direction sur votre système. Entrez simplement la commande suivante pour générer la vidéo, en utilisant une image d'entrée :

python3 scripts/dream.py –ckpt_path ckpt/stable-diffusion.ckpt –image_path input_image.png –prompt « texte d'invite » –fps 6 –num_frames 100 –augmentation_level 0.5

Veuillez noter que dans la commande ci-dessus, vous devez effectuer les opérations suivantes :

  • Remplacer entrée_image.png avec le chemin réel vers votre image d’entrée.
  • Remplacer texte d'invite avec le texte d'invite souhaité pour le modèle IA (par exemple, si vous souhaitez donner à la vidéo une forme, un style, déplacer son arrière-plan, etc.)
  • Ajuste le fps (images par seconde) et num_frames (nombre total de cadres) selon vos besoins.
  • Ajuste le niveau_augmentation pour contrôler l’intensité des transformations vidéo (si nécessaire).

Étape 3 : Enregistrez la sortie vidéo

Après avoir entré l'invite, vous pouvez attendre un moment pendant que le Génération vidéo à diffusion stable termine son traitement. Si le processus est plus complexe, la diffusion stable peut prendre un certain temps pour générer ses résultats.

Une fois la génération vidéo terminée, elle sera enregistrée dans le sortir répertoire avec l'horodatage comme nom.

De cette façon, vous pouvez utiliser le Vidéo AI à diffusion stable en vidéo gratuite (ou photo en vidéo gratuite) pour générer des vidéos. Vous pouvez expérimenter davantage avec diverses invites et paramètres de saisie pour modifier les résultats.

Quelle est la différence entre une diffusion instable et stable ?

En un mot, Stable Diffusion est un Modèle d'IA créé par Stability AI pour générer du contenu multimédia de haute qualité (photos et vidéos). Il s'agit d'une version plus stable de ses modèles précédents, qui génère des images réalistes et sans erreurs.

D’un autre côté, Unstable Diffusion est son homologue plus créatif et sans restriction. Contrairement à Stable Diffusion, qui a été formé sur un ensemble de données d'images filtrées, Unstable Diffusion a des images non filtrées comme ensemble de données. C'est pourquoi Unstable Diffusion peut souvent conduire à des erreurs dans ses résultats et produit un travail plus abstrait que réaliste.

Diffusion instable et stable

Quel sera l'impact de la diffusion vidéo stable sur la génération vidéo ?

Depuis Diffusion vidéo stable est encore en évolution, il est difficile de prédire son impact réel, mais il peut avoir l’influence suivante :

Productivité améliorée

Comme vous le savez, Stable Diffusion peut générer des vidéos en quelques secondes, ce qui peut aider les créateurs de contenu à gagner du temps. Vous pouvez créer des animations, ajouter des effets spéciaux ou transférer instantanément des styles de vidéos au lieu de passer des heures à éditer.

Coûts réduits

Les efforts manuels que nous consacrons au montage vidéo peuvent être coûteux et prendre du temps. D'autre part, Diffusion vidéo stable peut vous aider à réduire ces coûts de montage en automatisant la plupart des tâches de post-production.

Créativité améliorée

Les créateurs peuvent désormais créer des vidéos au-delà de leur créativité restreinte grâce à Stable Diffusion. Par exemple, il peut être utilisé pour générer des vidéos avec des effets spéciaux réalistes ou pour animer des images fixes.

Une plus grande accessibilité

Comme je l'ai mentionné ci-dessus, Stable Diffusion est un outil open source, accessible gratuitement à tous. Cela en fait un atout créatif précieux pour quiconque souhaite créer des vidéos, quels que soient ses compétences ou son budget.

Quel sera l'impact de la diffusion vidéo stable sur la génération vidéo

Comment fonctionne la diffusion vidéo stable ?

Comme son nom l’indique, le modèle d’IA repose sur une pratique de diffusion qui entraîne l’intelligence artificielle à générer des médias réalistes. Il repose sur trois grands principes :

La diffusion: En diffusion, nous commençons d'abord par une image aléatoire, puis nous y ajoutons progressivement des détails. Il continuera à fournir différentes sorties jusqu'à ce qu'il corresponde à l'entrée initiale. Cela formera le Génération vidéo à diffusion stable proposer des cadres synthétiques, basés sur celui initial.

Entraînement: Tout comme une image, le modèle de diffusion est formé sur un ensemble de données massif. De cette façon, le modèle d’IA peut facilement distinguer et générer toutes sortes d’objets réalistes.

Génération vidéo: Une fois le modèle entraîné, les utilisateurs peuvent charger une image dans le modèle IA. Le modèle affinera le bruit pour chaque image et proposera des sorties réalistes, basées sur les entrées fournies pour les couleurs, les rotations, les changements visuels, etc.

Comment fonctionne la diffusion vidéo stable ?

Quelles sont les limites d’une diffusion vidéo stable ?

Diffusion vidéo stable est récemment publié et présente plusieurs limitations, notamment les suivantes :

  • Longueur limitée: Pour l'instant, Stable Diffusion peut générer des vidéos de courte durée de 2 à 4 secondes seulement, ce qui la rend impropre à la création de vidéos longues.
  • Qualité: La qualité des vidéos générées peut varier en fonction de l'image d'entrée, de l'invite et des paramètres d'augmentation. Parfois, vous pouvez rencontrer diverses erreurs dans votre vidéo.
  • Contrôle créatif : Bien que le modèle d'IA puisse générer des vidéos créatives, il lui manque un contrôle de réglage précis, car les utilisateurs ne peuvent pas manipuler directement des images individuelles.
  • Capacité limitée: La capacité du modèle à interpréter et à répondre aux invites textuelles est encore en cours de développement et pourrait ne pas comprendre les invites complexes.
  • Transformation artistique : Bien que le transfert de style soit possible, il peut s'avérer difficile d'obtenir des résultats cohérents sur l'ensemble de la vidéo.
  • Exigences informatiques: La diffusion vidéo stable nécessite une carte graphique puissante et beaucoup de mémoire pour traiter de grands ensembles de données et générer des vidéos.

Où puis-je accéder au modèle de diffusion vidéo stable ?

La bonne nouvelle est que le modèle d'IA actuel du Diffusion vidéo stable est disponible gratuitement. Selon Stability AI, le modèle a déjà été développé à des fins de recherche. Vous pouvez accéder au code du modèle sur sa page GitHub ici : https://github.com/Stability-AI/generative-models

En plus de cela, vous pouvez accéder à sa documentation sur Hugging Face ici : https://huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt

Comment la diffusion vidéo stable fonctionne-t-elle par rapport aux autres modèles vidéo IA ?

Stability AI a lui-même effectué des recherches approfondies et comparé son modèle de génération vidéo avec d'autres outils. Selon la recherche, Stable Video Diffusion est comparée à des modèles comme Runway et Pika Labs.

Comment fonctionne la diffusion vidéo stable

Ici, vous pouvez voir comment ces modèles fonctionnent pour générer 14 et 25 images à une fréquence personnalisée de 3 à 30 ips. Stable Diffusion est également plus puissant que Google Video Diffusion et DALL.E lorsqu'il s'agit de générer des vidéos réalistes.

ModèleForceFaiblesse
Diffusion vidéo stableRésultats réalistes et cohérents, parfaits pour les courtes vidéos à partir d'images fixesDurée limitée, variations de qualité, contrôle créatif limité
Diffusion de vidéos GooglePeut générer des vidéos plus longues, idéales pour la génération de texte en vidéoPeut produire des erreurs, nécessite un réglage fin (pas si stable)
DALL-E2Très créatif et expérimentalPeut être moins stable
Piste MLFacile à utiliser et bon pour les débutantsCapacités limitées et pas aussi puissantes que les autres modèles
Laboratoires PikaOpen sourceBase d'utilisateurs limitée, toujours en développement

La diffusion vidéo stable peut-elle générer des vidéos de longue durée ?

Non – pour l’instant, les résultats du Génération vidéo à diffusion stable sont limités à 4 secondes maximum. Cependant, dans les prochaines versions de cette IA, on pourrait s’attendre à ce qu’elle génère également des vidéos de longue durée.

Quelles sont les exigences informatiques pour exécuter une diffusion vidéo stable ?

Voici quelques-unes des exigences pour exécuter Diffusion vidéo stable:

ExigenceLe minimumRecommandé
GPU6 Go de mémoire vidéo10 Go de VRAM (ou supérieur)
CPU4 cœurs8 cœurs (ou supérieur)
RAM16 GB32 Go (ou plus)
Stockage10 Go20 Go (ou plus)

En plus de cela, vous devez au préalable installer Python 3.10 (ou supérieur) sur votre système.

Quelle est la vision future de la diffusion vidéo stable ?

Actuellement, Stability AI n'a publié que Diffusion vidéo stable à des fins de recherche afin que le modèle puisse évoluer. Cependant, à l’avenir, nous pourrions nous attendre à ce que le modèle d’IA évolue dans les fonctionnalités suivantes :

  • Traitement d'invites textuelles plus complexes, détaillées ou abstraites.
  • Permettre aux utilisateurs d'éditer la vidéo dans l'interface native et d'obtenir des résultats personnalisés.
  • La possibilité d'inclure des transitions, des calques et d'autres effets spéciaux réalistes dans les vidéos.
  • Fournir des solutions sans tracas pour la mise à l'échelle, la réduction, la restauration vidéo, etc.
  • Avoir des fonctionnalités intégrées pour la correction des couleurs, la minimisation du bruit, la stabilisation vidéo, etc.
  • Les utilisateurs peuvent laisser le modèle d'IA apprendre son style en créant des vidéos ayant une touche personnelle.
  • Génération de vidéos en temps réel pour la diffusion, les réseaux sociaux et d'autres applications.

Réflexions finales

Je suis sûr qu'après avoir lu cet article, vous comprendrez facilement comment Génération vidéo à diffusion stable travaux. J'ai également proposé quelques étapes rapides que vous pouvez suivre pour commencer Diffusion vidéo stable tout seul. Cependant, vous devez vous rappeler que le Modèle d'IA est relativement nouveau, est encore en apprentissage et pourrait ne pas répondre exactement à vos besoins. Allez-y : essayez le modèle vidéo génératif Stability AI et continuez à l'expérimenter pour libérer votre créativité !

Partagez votre amour
Miguel
Miguel

J'aime relever le défi de découvrir des outils d'IA nouveaux et innovants qui peuvent être utilisés pour améliorer et rationaliser les flux de travail. Je m'efforce toujours de me tenir au courant des derniers développements en matière d'IA et de ne jamais cesser d'apprendre.

Publications: 115

Mises à jour de la newsletter

Saisissez votre adresse e-mail ci-dessous et abonnez-vous à notre newsletter

iFoto iFoto
fr_FRFrench