Skip to content

Commit 485cb40

Browse files
authored
Merge pull request #2692 from bghira/main
merge
2 parents 2528ee4 + c32f2d7 commit 485cb40

183 files changed

Lines changed: 14600 additions & 1103 deletions

File tree

Some content is hidden

Large Commits have some content hidden by default. Use the searchbox below for content that may be hidden.

documentation/OPTIONS.es.md

Lines changed: 29 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -715,6 +715,7 @@ Muchas configuraciones se establecen a través del [dataloader config](DATALOADE
715715
- Requiere que el modelo tenga un pipeline `IMG2IMG` o `IMG2VIDEO` registrado
716716
- Puede combinarse con `--eval_dataset_id` para obtener imágenes de un dataset específico
717717
- Para modelos i2v, permite usar un dataset de imágenes simple para validación sin la configuración compleja de emparejamiento de datasets de conditioning usada durante el entrenamiento
718+
- Flux Kontext no usa este flag para validación; déjalo desactivado y usa `--eval_dataset_id` para elegir el dataset de edición mientras Kontext carga automáticamente su dataset de referencia emparejado
718719
- La fuerza de des-ruido se controla con los ajustes normales de timestep de validación
719720

720721
### `--eval_dataset_id`
@@ -727,6 +728,7 @@ Muchas configuraciones se establecen a través del [dataloader config](DATALOADE
727728
- El ID de dataset debe coincidir con un dataset configurado en tu config de dataloader
728729
- Útil para mantener evaluación consistente usando un dataset de eval dedicado
729730
- Para modelos de conditioning, los datos de conditioning del dataset (si existen) también se usarán
731+
- Para Flux Kontext, esta es la forma correcta de seleccionar el dataset de validación; no habilites `--validation_using_datasets`
730732

731733
---
732734

@@ -742,6 +744,7 @@ Algunos modelos no pueden funcionar sin entradas de conditioning:
742744
- **Entrenamiento ControlNet**: Requiere imágenes de señal de control
743745

744746
Para estos modelos, un dataset de conditioning es obligatorio. La WebUI mostrará opciones de conditioning como requeridas, y el entrenamiento fallará sin ellas.
747+
La validación de Flux Kontext también permanece en esta ruta basada en conditioning. Usa `--eval_dataset_id` para elegir el dataset de edición para validación y deja `--validation_using_datasets` desactivado.
745748

746749
### 2. Modelos que SOPORTAN Conditioning Opcional
747750

@@ -774,6 +777,8 @@ Para estos modelos, PUEDES agregar datasets de conditioning pero no es obligator
774777

775778
**Modelos I2V con `--validation_using_datasets`**: Para modelos de video i2v (HunyuanVideo, WAN, Kandinsky5Video), habilitar este flag permite usar un dataset de imágenes simple para validación. Las imágenes se usan como entradas de conditioning de primer frame para generar videos de validación, sin necesidad de la configuración compleja de emparejamiento de datasets de conditioning.
776779

780+
**Flux Kontext con `--validation_using_datasets`**: No habilites este flag. Kontext es solo de edición y valida mediante su ruta normal de datasets emparejados de imagen + conditioning. Usa `--eval_dataset_id` para seleccionar el dataset de edición.
781+
777782
### Tipos de Datos de Conditioning
778783

779784
Diferentes modelos esperan diferentes datos de conditioning:
@@ -1098,11 +1103,32 @@ CREPA es una técnica de regularización para fine-tuning de modelos de difusió
10981103
- **Por qué**: Evita cargar DINOv2 cuando el backbone ya tiene una capa semántica más fuerte para supervisar.
10991104
- **Predeterminado**: `false`
11001105

1106+
### `--crepa_feature_source`
1107+
1108+
- **Qué**: Selecciona de dónde obtiene CREPA su señal de maestro.
1109+
- **Por qué**: Usa `encoder` para la ruta clásica con encoder externo, `backbone` para alineación interna bloque a bloque, o `self_flow` para el maestro EMA con vista más limpia usado por Self-Flow.
1110+
- **Opciones**: `encoder`, `backbone`, `self_flow`
1111+
- **Predeterminado**: `encoder`
1112+
1113+
### `--crepa_self_flow`
1114+
1115+
- **Qué**: Alias booleano legado que activa el modo Self-Flow.
1116+
- **Por qué**: Las configuraciones antiguas aún pueden usarlo, pero las nuevas deberían preferir `crepa_feature_source=self_flow`.
1117+
- **Predeterminado**: `false`
1118+
- **Nota**: Entra en conflicto con `crepa_use_backbone_features` y con `crepa_feature_source` si apunta a otro modo.
1119+
1120+
### `--crepa_self_flow_mask_ratio`
1121+
1122+
- **Qué**: Fracción de tokens que reciben el timestep alternativo en Self-Flow.
1123+
- **Por qué**: Controla cuánta asimetría de información se introduce entre tokens más limpios y más ruidosos. Valores altos fortalecen la señal auto-supervisada pero pueden desestabilizar el entrenamiento.
1124+
- **Predeterminado**: `0.1`
1125+
- **Rango**: `0.0` a `0.5`
1126+
11011127
### `--crepa_teacher_block_index`
11021128

1103-
- **Qué**: Índice del bloque maestro al usar características del backbone.
1104-
- **Por qué**: Te permite alinear un bloque estudiante temprano con un bloque maestro más profundo sin un encoder externo. Si no se establece, cae en el bloque estudiante.
1105-
- **Predeterminado**: Usa `crepa_block_index` si no se proporciona.
1129+
- **Qué**: Índice del bloque maestro al usar características del backbone o Self-Flow.
1130+
- **Por qué**: Te permite alinear un bloque estudiante temprano con un bloque maestro más profundo sin un encoder externo. Self-Flow lo requiere explícitamente para que el profesor EMA lea una capa semántica más profunda.
1131+
- **Predeterminado**: Usa `crepa_block_index` si no se proporciona en modo backbone; es obligatorio en modo Self-Flow.
11061132

11071133
### `--crepa_encoder_image_size`
11081134

documentation/OPTIONS.hi.md

Lines changed: 29 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -713,6 +713,7 @@ Alternative attention mechanisms समर्थित हैं, जिनक
713713
- Model में `IMG2IMG` या `IMG2VIDEO` pipeline registered होना चाहिए
714714
- `--eval_dataset_id` के साथ combine कर सकते हैं specific dataset से images लेने के लिए
715715
- i2v models के लिए, यह training में use होने वाली complex conditioning dataset pairing setup के बिना simple image dataset validation के लिए use करने देता है
716+
- Flux Kontext validation के लिए इस flag का उपयोग नहीं करता; इसे disabled रखें और edit dataset चुनने के लिए `--eval_dataset_id` उपयोग करें, जबकि Kontext paired reference dataset अपने आप load कर लेता है
716717
- Denoising strength normal validation timestep settings से control होती है
717718

718719
### `--eval_dataset_id`
@@ -725,6 +726,7 @@ Alternative attention mechanisms समर्थित हैं, जिनक
725726
- Dataset ID आपके dataloader config में configured dataset से match होना चाहिए
726727
- Dedicated eval dataset use करके consistent evaluation maintain करने के लिए useful
727728
- Conditioning models के लिए, dataset का conditioning data (यदि हो) भी use होगा
729+
- Flux Kontext के लिए validation dataset चुनने का सही तरीका यही है; `--validation_using_datasets` enable न करें
728730

729731
---
730732

@@ -740,6 +742,7 @@ SimpleTuner conditioning inputs (reference images, control signals, आदि) u
740742
- **ControlNet training**: Control signal images require करता है
741743

742744
इन models के लिए, conditioning dataset mandatory है। WebUI conditioning options को required दिखाएगी, और training इनके बिना fail होगी।
745+
Flux Kontext validation भी इसी conditioning-based path पर रहती है। Validation के लिए edit dataset चुनने हेतु `--eval_dataset_id` उपयोग करें और `--validation_using_datasets` disabled रखें।
743746

744747
### 2. Models जो Optional Conditioning SUPPORT करते हैं
745748

@@ -772,6 +775,8 @@ SimpleTuner conditioning inputs (reference images, control signals, आदि) u
772775

773776
**I2V models के साथ `--validation_using_datasets`**: i2v video models (HunyuanVideo, WAN, Kandinsky5Video) के लिए, यह flag enable करने पर validation के लिए simple image dataset use कर सकते हैं। Images validation videos generate करने के लिए first-frame conditioning inputs के रूप में use होती हैं, complex conditioning dataset pairing setup की जरूरत के बिना।
774777

778+
**Flux Kontext के साथ `--validation_using_datasets`**: यह flag enable न करें। Kontext edit-only है और validation अपनी सामान्य paired image + conditioning dataset path से चलाता है। इसके बजाय edit dataset चुनने के लिए `--eval_dataset_id` उपयोग करें।
779+
775780
### Conditioning Data Types
776781

777782
Different models different conditioning data expect करते हैं:
@@ -1096,11 +1101,32 @@ CREPA एक regularization तकनीक है जो video diffusion models
10961101
- **Why**: जब backbone के पास पहले से मजबूत semantic layer हो, तब DINOv2 लोड करने से बचता है।
10971102
- **Default**: `false`
10981103

1104+
### `--crepa_feature_source`
1105+
1106+
- **What**: चुनता है कि CREPA अपना teacher signal कहां से ले।
1107+
- **Why**: classic external encoder path के लिए `encoder`, internal block-to-block alignment के लिए `backbone`, और Self-Flow के cleaner EMA teacher view के लिए `self_flow` उपयोग करें।
1108+
- **Choices**: `encoder`, `backbone`, `self_flow`
1109+
- **Default**: `encoder`
1110+
1111+
### `--crepa_self_flow`
1112+
1113+
- **What**: Self-Flow mode enable करने वाला legacy boolean alias।
1114+
- **Why**: पुराने configs अब भी इसका उपयोग कर सकते हैं, लेकिन नए configs को `crepa_feature_source=self_flow` उपयोग करना चाहिए।
1115+
- **Default**: `false`
1116+
- **Note**: यह `crepa_use_backbone_features` और किसी दूसरे mode वाले `crepa_feature_source` के साथ conflict करता है।
1117+
1118+
### `--crepa_self_flow_mask_ratio`
1119+
1120+
- **What**: Self-Flow में alternate timestep पाने वाले tokens का fraction।
1121+
- **Why**: यह cleaner और noisier tokens के बीच information asymmetry नियंत्रित करता है। ऊंचे values self-supervised signal को मजबूत करते हैं, लेकिन training unstable भी कर सकते हैं।
1122+
- **Default**: `0.1`
1123+
- **Range**: `0.0` से `0.5`
1124+
10991125
### `--crepa_teacher_block_index`
11001126

1101-
- **What**: backbone features उपयोग करते समय teacher block index।
1102-
- **Why**: external encoder के बिना, earlier student block को later teacher block से align करने देता है। unset होने पर student block पर fallback होता है
1103-
- **Default**: यदि नहीं दिया गया, तो `crepa_block_index` उपयोग होगा।
1127+
- **What**: backbone features या Self-Flow उपयोग करते समय teacher block index।
1128+
- **Why**: external encoder के बिना earlier student block को later teacher block से align करने देता है। Self-Flow में यह explicitly जरूरी है ताकि EMA teacher deeper semantic layer से पढ़े
1129+
- **Default**: backbone mode में नहीं दिया गया तो `crepa_block_index` उपयोग होगा; Self-Flow mode में यह required है
11041130

11051131
### `--crepa_encoder_image_size`
11061132

documentation/OPTIONS.ja.md

Lines changed: 29 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -715,6 +715,7 @@ Accelerate の既定値を使いたい項目は省略してください(例:
715715
- モデルに `IMG2IMG` または `IMG2VIDEO` パイプラインが登録されている必要があります
716716
- `--eval_dataset_id` と組み合わせて特定のデータセットから画像を取得できます
717717
- i2v モデルの場合、学習時に使用する複雑なコンディショニングデータセットのペアリング設定なしで、シンプルな画像データセットを検証に使用できます
718+
- Flux Kontext は検証でこのフラグを使用しません。無効のままにして、`--eval_dataset_id` で編集データセットを選択してください。Kontext は対応する参照データセットを自動で読み込みます
718719
- デノイズ強度は通常の検証タイムステップ設定で制御されます
719720

720721
### `--eval_dataset_id`
@@ -727,6 +728,7 @@ Accelerate の既定値を使いたい項目は省略してください(例:
727728
- データセットIDはデータローダー設定の設定済みデータセットと一致する必要があります
728729
- 専用の評価データセットを使用して一貫した評価を維持するのに便利です
729730
- コンディショニングモデルの場合、データセットのコンディショニングデータ(存在する場合)も使用されます
731+
- Flux Kontext では、これが正しい検証データセット選択方法です。`--validation_using_datasets` は有効にしないでください
730732

731733
---
732734

@@ -742,6 +744,7 @@ SimpleTunerは、コンディショニング入力(参照画像、制御信号
742744
- **ControlNet学習**: 制御信号画像が必要
743745

744746
これらのモデルではコンディショニングデータセットが必須です。WebUIはコンディショニングオプションを必須として表示し、なければ学習は失敗します。
747+
Flux Kontext の検証もこのコンディショニングベースの経路を使います。検証に使う編集データセットは `--eval_dataset_id` で選び、`--validation_using_datasets` は無効のままにしてください。
745748

746749
### 2. オプションのコンディショニングをサポートするモデル
747750

@@ -774,6 +777,8 @@ SimpleTunerは、コンディショニング入力(参照画像、制御信号
774777

775778
**I2V モデルと `--validation_using_datasets`**: i2v 動画モデル(HunyuanVideo、WAN、Kandinsky5Video)の場合、このフラグを有効にすると、シンプルな画像データセットを検証に使用できます。画像は検証動画を生成するための最初のフレームコンディショニング入力として使用され、複雑なコンディショニングデータセットペアリング設定は不要です。
776779

780+
**Flux Kontext と `--validation_using_datasets`**: このフラグは有効にしないでください。Kontext は編集専用で、通常のペア画像 + コンディショニングデータセット経路で検証します。代わりに `--eval_dataset_id` で編集データセットを選択してください。
781+
777782
### コンディショニングデータタイプ
778783

779784
異なるモデルは異なるコンディショニングデータを期待します:
@@ -1100,11 +1105,32 @@ CREPA は動画拡散モデルのファインチューニング向け正則化
11001105
- **理由**: バックボーン内に強い意味層がある場合、DINOv2 のロードを避けられます。
11011106
- **既定**: `false`
11021107

1108+
### `--crepa_feature_source`
1109+
1110+
- **内容**: CREPA が教師信号をどこから取得するかを選びます。
1111+
- **理由**: 古典的な外部エンコーダ経路は `encoder`、内部ブロック間整合は `backbone`、Self-Flow の cleaner EMA 教師ビューは `self_flow` を使います。
1112+
- **選択肢**: `encoder`, `backbone`, `self_flow`
1113+
- **既定**: `encoder`
1114+
1115+
### `--crepa_self_flow`
1116+
1117+
- **内容**: Self-Flow モードを有効にする旧式の真偽値エイリアスです。
1118+
- **理由**: 既存設定との互換性のために残っていますが、新しい設定では `crepa_feature_source=self_flow` を推奨します。
1119+
- **既定**: `false`
1120+
- **注意**: `crepa_use_backbone_features` や、別モードを指す `crepa_feature_source` と競合します。
1121+
1122+
### `--crepa_self_flow_mask_ratio`
1123+
1124+
- **内容**: Self-Flow で別 timestep を受けるトークンの割合です。
1125+
- **理由**: クリーンなトークンとノイズの強いトークンの情報非対称性を制御します。高すぎる値は自己教師あり信号を強めますが、学習を不安定にすることがあります。
1126+
- **既定**: `0.1`
1127+
- **範囲**: `0.0` から `0.5`
1128+
11031129
### `--crepa_teacher_block_index`
11041130

1105-
- **内容**: バックボーン特徴使用時の教師ブロックインデックス
1106-
- **理由**: 外部エンコーダなしで、早い学生ブロックを後段の教師ブロックに整合できます。未設定なら学生ブロックにフォールバックします
1107-
- **既定**: 指定がなければ `crepa_block_index` を使用。
1131+
- **内容**: バックボーン特徴または Self-Flow 使用時の教師ブロックインデックス
1132+
- **理由**: 外部エンコーダなしで、早い学生ブロックを後段の教師ブロックに整合できます。Self-Flow では EMA 教師がより深い意味層を読むため、明示設定が必要です
1133+
- **既定**: バックボーンモードでは未指定時に `crepa_block_index` を使用。Self-Flow モードでは必須です
11081134

11091135
### `--crepa_encoder_image_size`
11101136

0 commit comments

Comments
 (0)