論文の概要: Self-Refining Video Sampling
- arxiv url: http://arxiv.org/abs/2601.18577v1
- Date: Mon, 26 Jan 2026 15:22:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.894358
- Title: Self-Refining Video Sampling
- Title(参考訳): 自己修復型ビデオサンプリング
- Authors: Sangwon Jang, Taekyung Ki, Jaehyeong Jo, Saining Xie, Jaehong Yoon, Sung Ju Hwang,
- Abstract要約: 本稿では,大規模データセットを学習した事前学習ビデオジェネレータを自己精錬機として利用する簡単な方法である自己精錬ビデオサンプリングを提案する。
最先端のビデオジェネレータの実験では、運動コヒーレンスと物理アライメントが大幅に改善された。
- 参考スコア(独自算出の注目度): 91.0784344916165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern video generators still struggle with complex physical dynamics, often falling short of physical realism. Existing approaches address this using external verifiers or additional training on augmented data, which is computationally expensive and still limited in capturing fine-grained motion. In this work, we present self-refining video sampling, a simple method that uses a pre-trained video generator trained on large-scale datasets as its own self-refiner. By interpreting the generator as a denoising autoencoder, we enable iterative inner-loop refinement at inference time without any external verifier or additional training. We further introduce an uncertainty-aware refinement strategy that selectively refines regions based on self-consistency, which prevents artifacts caused by over-refinement. Experiments on state-of-the-art video generators demonstrate significant improvements in motion coherence and physics alignment, achieving over 70\% human preference compared to the default sampler and guidance-based sampler.
- Abstract(参考訳): 現代のビデオジェネレータは複雑な物理力学に苦しむが、しばしば物理的リアリズムに欠ける。
既存のアプローチでは、外部検証や拡張データに対する追加のトレーニングを使用してこの問題に対処している。
本研究では,大規模データセットをトレーニングした事前学習ビデオジェネレータを自己精錬装置として利用する簡単な方法である自己精錬ビデオサンプリングを提案する。
ジェネレータをデノナイズドオートエンコーダとして解釈することにより、外部検証や追加の訓練なしに、推論時に反復的なインナーループ洗練を可能にする。
さらに、自己整合性に基づいて地域を選択的に洗練する不確実性に配慮した改善戦略を導入し、過剰なリファインメントによるアーティファクトを防止する。
最先端のビデオジェネレータの実験は、デフォルトのサンプル装置やガイダンスベースのサンプル装置と比較して、運動コヒーレンスと物理アライメントの大幅な改善を示し、人間の嗜好を70%以上達成している。
関連論文リスト
- Video Prediction of Dynamic Physical Simulations With Pixel-Space Spatiotemporal Transformers [3.951575888190684]
本研究は,ビデオ予測のためのトランスフォーマー適応を簡易なエンド・ツー・エンド・アプローチで検討し,種々の自己時間的アテンションレイアウトを比較した。
本稿では,自動回帰映像予測のための簡易かつ効果的な変換器を提案し,連続した画素空間表現をビデオ予測水平線に適用する。
論文 参考訳(メタデータ) (2025-10-23T17:58:45Z) - Training-Free Motion Customization for Distilled Video Generators with Adaptive Test-Time Distillation [53.877572078307935]
蒸留ビデオ生成モデルは、高速で効率的なが、参照ビデオによってガイドされるときの動きのカスタマイズに苦労する。
拡散教師の強制力を活用して運動のカスタマイズを可能にする訓練不要な試験時間蒸留フレームワークであるMotionEchoを提案する。
論文 参考訳(メタデータ) (2025-06-24T06:20:15Z) - Self Forcing: Bridging the Train-Test Gap in Autoregressive Video Diffusion [67.94300151774085]
本稿では,自己回帰ビデオ拡散モデルのための新しい訓練パラダイムであるSelf Forcingを紹介する。
露光バイアスの長年の問題に対処し、地道的な文脈で訓練されたモデルは、自身の不完全な出力で条件付けられたシーケンスを生成する必要がある。
論文 参考訳(メタデータ) (2025-06-09T17:59:55Z) - Refining Pre-Trained Motion Models [56.18044168821188]
我々は、自己教師付きトレーニングによる最先端の教師付きモデルの改善に挑戦する。
実世界の未学習ビデオから「クリーン」な訓練信号を得ることに重点を置いている。
本研究では,本手法が実動画における完全教師付き手法よりも信頼性が高いことを示す。
論文 参考訳(メタデータ) (2024-01-01T18:59:33Z) - StyleInV: A Temporal Style Modulated Inversion Network for Unconditional
Video Generation [73.54398908446906]
本稿では,GANのための学習型反転ネットワークを用いた新しいモーションジェネレータの設計を提案する。
本手法は,既訓練のStyleGANジェネレータとエンコーダをペアにした場合に,簡単な微調整でスタイル転送をサポートする。
論文 参考訳(メタデータ) (2023-08-31T17:59:33Z) - Autoencoding Video Latents for Adversarial Video Generation [0.0]
AVLAEは2ストリームの遅延オートエンコーダであり、ビデオ配信は敵の訓練によって学習される。
提案手法は, 発生器の明示的な構造構成を伴わずとも, 動きや外見の符号を乱すことを学習できることを実証する。
論文 参考訳(メタデータ) (2022-01-18T11:42:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。