Questo progetto fornisce un'implementazione TensorRT di RIFE per l'interpolazione di frame ultra veloce all'interno di ComfyUI
Questo progetto è licenziato sotto CC BY-NC-SA, tutti sono LIBERI di accedere, usare, modificare e ridistribuire con la stessa licenza.
Se ti piace il progetto, lascia una stella! ⭐
Nota: I seguenti risultati sono stati testati su motori FP16 all'interno di ComfyUI, utilizzando 2000 frame composti da 2 frame alternati simili, mediati 2-3 volte
| Dispositivo | Motore Rife | Risoluzione | Moltiplicatore | FPS |
|---|---|---|---|---|
| H100 | rife49_ensemble_True_scale_1_sim | 512 x 512 | 2 | 45 |
| H100 | rife49_ensemble_True_scale_1_sim | 512 x 512 | 4 | 57 |
| H100 | rife49_ensemble_True_scale_1_sim | 1280 x 1280 | 2 | 21 |
Naviga nella directory /custom_nodes di ComfyUI
cd ComfyUI/custom_nodes
git clone https://github.com/huchukato/ComfyUI-RIFE-TensorRT-Auto.gitQuesto nodo presenta rilevamento automatico CUDA e installazione TensorRT!
Quando ComfyUI carica il nodo per la prima volta, eseguirà:
- Rilevamento automatico della versione CUDA (12 o 13)
- Installazione automatica dei pacchetti TensorRT appropriati
- Configurazione di tutto per un funzionamento senza interruzioni
Nessun passaggio manuale richiesto! Basta clonare la repo e riavviare ComfyUI.
Se preferisci l'installazione manuale o riscontri problemi:
Script di auto-installazione:
# Linux/macOS
./install.sh
# Windows
install.bat
# Python (cross-platform)
python install.pyFile requirements manuali:
# Per CUDA 13 (RTX 50 series)
pip install -r requirements.txt
# Per CUDA 12 (RTX 30/40 series) - METODO LEGACY
pip install -r requirements_cu12.txt💡 Nota: Il
requirements_cu12.txtè fornito come metodo legacy di fallback. L'installazione automatica è fortemente raccomandata in quanto gestisce il rilevamento CUDA e l'installazione dei pacchetti senza problemi.
Il nodo rileva automaticamente la tua installazione CUDA tramite le variabili d'ambiente CUDA_PATH o CUDA_HOME.
Se CUDA non viene rilevato, scarica da: https://developer.nvidia.com/cuda-13-0-2-download-archive
Importante: Il motore TensorRT supporta diversi range di risoluzione in base al profilo selezionato:
- profilo small: 384-1080px
- profilo medium: 672-1312px
- profilo large: 720-1920px (perfetto per 1440x960 e risoluzioni superiori)
Per immagini più grandi del massimo del profilo selezionato, ridimensionale prima di usare il nodo RIFE o seleziona un profilo superiore.
Il nodo supporta profili di risoluzione per ottimizzare l'uso della VRAM:
- small: 384-1080px (raccomandato per la maggior parte della generazione video)
- medium: 672-1312px (per video ad alta risoluzione)
- large: 720-1920px (per contenuti 4K e ad alta risoluzione)
- custom: Collega un nodo "RIFE Custom Resolution Config" per controllo manuale
I seguenti modelli RIFE sono supportati e verranno scaricati e compilati automaticamente:
- rife49_ensemble_True_scale_1_sim (default) - Il più recente e accurato
- rife48_ensemble_True_scale_1_sim - Buon equilibrio tra velocità e qualità
- rife47_ensemble_True_scale_1_sim - Opzione più veloce
I modelli vengono scaricati automaticamente da HuggingFace e i motori TensorRT vengono compilati al primo utilizzo.
-
Carica Modello: Inserisci
Right Click -> Add Node -> tensorrt -> Load Rife Tensorrt Model- Scegli il tuo modello RIFE preferito (rife47, rife48, o rife49)
- Seleziona la precisione (fp16 raccomandato per velocità, fp32 per massima accuratezza)
- Seleziona il profilo di risoluzione (small, medium, large, o custom)
- Il modello verrà scaricato automaticamente e il motore TensorRT compilato al primo utilizzo
-
Processa Frame: Inserisci
Right Click -> Add Node -> tensorrt -> Rife Tensorrt- Collega il modello caricato dal passaggio 1
- Inserisci i tuoi frame video
- Configura le impostazioni di interpolazione (moltiplicatore, CUDA graph, ecc.)
Se incontri CUDA initialization failure with error: 35 o errori simili di TensorRT:
-
Controlla Driver NVIDIA:
nvidia-smi
Assicurati che i driver supportino la tua versione CUDA
-
Riavvia il Sistema: A volte lo stato CUDA si corrompe - un riavvio può risolvere il problema
-
Verifica Installazione CUDA:
nvcc --version
Assicurati che CUDA toolkit sia installato correttamente
-
Controlla PyTorch CUDA:
import torch print(f"CUDA disponibile: {torch.cuda.is_available()}") print(f"Versione CUDA: {torch.version.cuda}")
-
Reinstalla TensorRT:
python install.py
Il nodo ora include diagnostica CUDA automatica che aiuterà a identificare il problema specifico.
Per motori ad alta risoluzione, assicurati di avere VRAM sufficiente:
- profilo small: ~2GB VRAM minimo
- profilo medium: ~4GB VRAM minimo
- profilo large: ~6GB VRAM minimo
Se l'installazione automatica fallisce, prova l'installazione manuale:
# CUDA 13
pip install -r requirements.txt
# CUDA 12
pip install -r requirements_cu12.txt- Windows 11, CUDA 13.0, TensorRT 10.15.1.29, Python 3.12, RTX 5090
- WSL Ubuntu 24.04.03 LTS, CUDA 12.9, TensorRT 10.13.3.9, Python 3.12.11, RTX 5080
- Installazione Completamente Automatica: Rilevamento CUDA e installazione TensorRT al caricamento del nodo
- Correzione Dipendenze: Aggiornato TensorRT a 10.15.1.29 per risolvere conflitti di installazione
- Supporto RTX 5090: Testato e confermata compatibilità con RTX 5090
- Documentazione Risoluzione: Aggiunta guida chiara sui limiti di risoluzione e preprocessing
- Profilo Large: Aggiunto supporto per risoluzioni fino a 1920px
- CUDA 13 Default: Aggiornato a CUDA 13.0 e TensorRT 10.14.1.48
- Rilevamento CUDA Automatico: Rileva automaticamente CUDA toolkit e percorsi DLL
- Profili di Risoluzione: Aggiunti profili small/medium/custom per ridurre l'uso della VRAM
- Gestione Modelli Automatica: Niente più download manuali! I modelli vengono scaricati automaticamente da HuggingFace e i motori TensorRT vengono compilati su richiesta
- Workflow Migliorato: Nuovo sistema a due nodi con
Load Rife Tensorrt Model+Rife Tensorrtper migliore organizzazione - Dipendenze Aggiornate: TensorRT aggiornato a 10.13.3.9 per migliori performance e compatibilità
- https://github.com/styler00dollar/VSGAN-tensorrt-docker
- https://github.com/Fannovel16/ComfyUI-Frame-Interpolation
- https://github.com/hzwer/ECCV2022-RIFE
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)