超要約:マスクド拡散モデルを爆速にする方法!
✨ギャル的キラキラポイント✨ ● KLダイバージェンス(KL divergence)ってやつを使って、モデルの安定性をチェックするんだって!😳 ● 高速化しても、画像のクオリティは全然落ちないのがスゴイ🫶 ● 追加の学習とかいらないから、すぐに試せるのが嬉しいよね♪
詳細解説 背景 マスクド拡散モデル(MDM)って、めちゃくちゃ良いものが作れるんだけど、処理に時間がかかるのがネックだったの!😭 もっと早く動かせたら、もっと色んなことに使えるのに~って思ってたんだよね。
方法 KLASSっていう新しい方法を使って、推論を早くするんだって!KLダイバージェンスでモデルの「自信度」を測って、早くマスクを外しても大丈夫な部分を見つけるらしい✨ これで、無駄な計算を減らしてスピードアップ!
続きは「らくらく論文」アプリで
Masked diffusion models have demonstrated competitive results on various tasks including language generation. However, due to its iterative refinement process, the inference is often bottlenecked by slow and static sampling speed. To overcome this problem, we introduce `KL-Adaptive Stability Sampling' (KLASS), a fast yet effective sampling method that exploits token-level KL divergence to identify stable, high-confidence predictions. By unmasking multiple tokens in each iteration without any additional model training, our approach speeds up generation significantly while maintaining sample quality. On reasoning benchmarks, KLASS achieves up to $2.78\times$ wall-clock speedups while improving performance over standard greedy decoding, attaining state-of-the-art results among diffusion-based samplers. We further validate KLASS across diverse domains, including text, image, and molecular generation, showing its effectiveness as a broadly applicable sampler across different models.