論文の概要: Flowception: Temporally Expansive Flow Matching for Video Generation
- arxiv url: http://arxiv.org/abs/2512.11438v1
- Date: Fri, 12 Dec 2025 10:23:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.729408
- Title: Flowception: Temporally Expansive Flow Matching for Video Generation
- Title(参考訳): フローセプション:ビデオ生成のための時間的拡張フローマッチング
- Authors: Tariq Berrada Ifriqi, John Nguyen, Karteek Alahari, Jakob Verbeek, Ricky T. Q. Chen,
- Abstract要約: Flowceptionは自動回帰および可変長ビデオ生成フレームワークである。
離散的なフレーム挿入を連続的なフレームデノイングでインターリーブする確率パスを学習する。
Flowceptionは、フレームをシーケンスに挿入し、復調することを学ぶことで、画像からビデオへの生成やビデオなど、さまざまなタスクをシームレスに統合する。
- 参考スコア(独自算出の注目度): 35.14803469800522
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Flowception, a novel non-autoregressive and variable-length video generation framework. Flowception learns a probability path that interleaves discrete frame insertions with continuous frame denoising. Compared to autoregressive methods, Flowception alleviates error accumulation/drift as the frame insertion mechanism during sampling serves as an efficient compression mechanism to handle long-term context. Compared to full-sequence flows, our method reduces FLOPs for training three-fold, while also being more amenable to local attention variants, and allowing to learn the length of videos jointly with their content. Quantitative experimental results show improved FVD and VBench metrics over autoregressive and full-sequence baselines, which is further validated with qualitative results. Finally, by learning to insert and denoise frames in a sequence, Flowception seamlessly integrates different tasks such as image-to-video generation and video interpolation.
- Abstract(参考訳): 本稿では,新しい非自己回帰・可変長ビデオ生成フレームワークであるFlowceptionを紹介する。
フローセプションは、離散フレーム挿入と連続フレームの復調をインターリーブする確率パスを学習する。
自己回帰法と比較して、フローセプションはサンプリング中のフレーム挿入機構としてエラー蓄積/ドリフトを緩和し、長期的コンテキストを扱う効率的な圧縮機構として機能する。
フルシーケンスのフローと比較して,本手法は3倍のトレーニングを行うためのFLOPを削減し,また,ローカルなアテンションに適応し,ビデオの長さをコンテンツとともに学習することができる。
定量的実験の結果, 自己回帰および全系列ベースラインよりもFVDとVBenchの指標が向上し, 定性的な結果が得られた。
最後に、フレームをシーケンスに挿入・復調することを学ぶことで、Flowceptionはイメージ・ツー・ビデオ生成やビデオ補間といったさまざまなタスクをシームレスに統合する。
関連論文リスト
- DiTVR: Zero-Shot Diffusion Transformer for Video Restoration [48.97196894658511]
DiTVRはゼロショットビデオ復元フレームワークで、拡散トランスフォーマーと軌跡を意識した注意と流れ一貫したサンプルを結合する。
我々の注意機構は、光流路に沿ってトークンを整列させ、特に時間力学に最も敏感な重要な層に重点を置いている。
フローガイドされたサンプリング装置は、低周波帯域にのみデータの一貫性を注入し、キャッシュを加速させながら高周波事前保存を行う。
論文 参考訳(メタデータ) (2025-08-11T09:54:45Z) - DIFFVSGG: Diffusion-Driven Online Video Scene Graph Generation [61.59996525424585]
DIFFVSGGはオンラインのVSGGソリューションで、このタスクを反復的なシーングラフ更新問題とみなしている。
オブジェクト分類の復号化、境界ボックス回帰、グラフ生成の3つのタスクを1つの共有特徴埋め込みを用いて統合する。
DIFFVSGGはさらに、後続のフレームの予測が過去のフレームの結果をLCMの条件入力として活用する継続的時間的推論を促進する。
論文 参考訳(メタデータ) (2025-03-18T06:49:51Z) - Ouroboros-Diffusion: Exploring Consistent Content Generation in Tuning-free Long Video Diffusion [116.40704026922671]
事前訓練されたテキスト・ツー・ビデオモデルに基づいて構築されたファースト・イン・ファースト・アウト(FIFO)ビデオ拡散は,近年,チューニング不要な長ビデオ生成に有効なアプローチとして浮上している。
We propose Ouroboros-Diffusion, a novel video denoising framework designed to enhance structure and content (ject) consistency。
論文 参考訳(メタデータ) (2025-01-15T18:59:15Z) - Coherent Video Inpainting Using Optical Flow-Guided Efficient Diffusion [15.188335671278024]
高速な映像コヒーレンスを実現するために,光フロー誘導効率拡散(FloED)を用いた新しい映像インペイントフレームワークを提案する。
FloEDはデュアルブランチアーキテクチャを採用しており、時間に依存しないフローブランチが最初に破損したフローを復元し、マルチスケールフローアダプタがメインの塗装ブランチにモーションガイダンスを提供する。
背景復元およびオブジェクト除去タスクの実験では、FloEDは最先端の拡散法よりも品質と効率の両方で優れていた。
論文 参考訳(メタデータ) (2024-12-01T15:45:26Z) - Motion-Aware Video Frame Interpolation [49.49668436390514]
我々は、連続するフレームから中間光の流れを直接推定する動き対応ビデオフレーム補間(MA-VFI)ネットワークを導入する。
受容場が異なる入力フレームからグローバルな意味関係と空間的詳細を抽出するだけでなく、必要な計算コストと複雑さを効果的に削減する。
論文 参考訳(メタデータ) (2024-02-05T11:00:14Z) - StreamFlow: Streamlined Multi-Frame Optical Flow Estimation for Video
Sequences [31.210626775505407]
連続するフレーム間のオクルージョンは、長い間、光学的フロー推定において重要な課題を提起してきた。
本稿では,ビデオ入力に適したストリーム・イン・バッチ・マルチフレーム(SIM)パイプラインを提案する。
StreamFlowは、挑戦的なKITTIとSintelデータセットのパフォーマンスだけでなく、排他的領域でも特に改善されている。
論文 参考訳(メタデータ) (2023-11-28T07:53:51Z) - AccFlow: Backward Accumulation for Long-Range Optical Flow [70.4251045372285]
本稿では、長距離光フロー推定のためのAccFlowと呼ばれる新しいリカレントフレームワークを提案する。
従来の前方累積よりも後方累積の方が優れていることを示す。
長距離光流量推定におけるAccFlowの有効性を検証する実験
論文 参考訳(メタデータ) (2023-08-25T01:51:26Z) - Flow Guidance Deformable Compensation Network for Video Frame
Interpolation [33.106776459443275]
既存の動きに基づく手法の欠点を克服するため,フローガイダンス変形補償ネットワーク(FGDCN)を提案する。
FGDCNは、フレームサンプリングプロセスをフローステップと変形ステップの2つのステップに分解する。
実験結果から,提案アルゴリズムはパラメータが少ない各種データセットに対して優れた性能を示すことがわかった。
論文 参考訳(メタデータ) (2022-11-22T09:35:14Z) - Error Compensation Framework for Flow-Guided Video Inpainting [36.626793485786095]
フロー誘導型ビデオインペインティング(ECFVI)における誤り補償フレームワークを提案する。
提案手法は,映像の時間的一貫性と視覚的品質を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-21T10:02:57Z) - FLAVR: Flow-Agnostic Video Representations for Fast Frame Interpolation [97.99012124785177]
FLAVRは、3D空間時間の畳み込みを使用して、ビデオフレームのエンドツーエンドの学習と推論を可能にする柔軟で効率的なアーキテクチャです。
FLAVRは、アクション認識、光フロー推定、モーション拡大のための有用な自己解釈タスクとして役立つことを実証します。
論文 参考訳(メタデータ) (2020-12-15T18:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。