論文の概要: Harnessing Meta-Learning for Controllable Full-Frame Video Stabilization
- arxiv url: http://arxiv.org/abs/2508.18859v1
- Date: Tue, 26 Aug 2025 09:38:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.783811
- Title: Harnessing Meta-Learning for Controllable Full-Frame Video Stabilization
- Title(参考訳): 制御可能なフルフレームビデオ安定化のためのハラスティングメタラーニング
- Authors: Muhammad Kashif Ali, Eun Woo Im, Dongjin Kim, Tae Hyun Kim, Vivek Gupta, Haonan Luo, Tianrui Li,
- Abstract要約: 本稿では,テスト時に各入力ビデオに迅速にモデルを適応させることにより,画素レベルの合成ビデオ安定化法を改善する手法を提案する。
提案手法は、推定時に利用できる低レベルの視覚的手がかりを利用して、出力の安定性と視覚的品質を両立させる。
- 参考スコア(独自算出の注目度): 27.960157360933636
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video stabilization remains a fundamental problem in computer vision, particularly pixel-level synthesis solutions for video stabilization, which synthesize full-frame outputs, add to the complexity of this task. These methods aim to enhance stability while synthesizing full-frame videos, but the inherent diversity in motion profiles and visual content present in each video sequence makes robust generalization with fixed parameters difficult. To address this, we present a novel method that improves pixel-level synthesis video stabilization methods by rapidly adapting models to each input video at test time. The proposed approach takes advantage of low-level visual cues available during inference to improve both the stability and visual quality of the output. Notably, the proposed rapid adaptation achieves significant performance gains even with a single adaptation pass. We further propose a jerk localization module and a targeted adaptation strategy, which focuses the adaptation on high-jerk segments for maximizing stability with fewer adaptation steps. The proposed methodology enables modern stabilizers to overcome the longstanding SOTA approaches while maintaining the full frame nature of the modern methods, while offering users with control mechanisms akin to classical approaches. Extensive experiments on diverse real-world datasets demonstrate the versatility of the proposed method. Our approach consistently improves the performance of various full-frame synthesis models in both qualitative and quantitative terms, including results on downstream applications.
- Abstract(参考訳): ビデオ安定化はコンピュータビジョンの基本的な問題であり、特にフルフレーム出力を合成するビデオ安定化のためのピクセルレベルの合成ソリューションは、このタスクの複雑さを増す。
これらの手法は、フルフレーム映像を合成しながら安定性を高めることを目的としているが、各ビデオシーケンスに存在する動きプロファイルや視覚内容の固有の多様性は、固定パラメータによる堅牢な一般化を困難にしている。
そこで本研究では,各入力ビデオに高速にモデルを適応させることにより,画素レベルの合成ビデオ安定化法を改善する手法を提案する。
提案手法は、推定時に利用できる低レベルの視覚的手がかりを利用して、出力の安定性と視覚的品質を両立させる。
特に、提案した高速適応は、単一適応パスであっても、大幅な性能向上を達成する。
さらに,より少ない適応ステップで安定性を最大化するために,ハイジャックセグメントへの適応に焦点を当てたジャク局所化モジュールとターゲット適応戦略を提案する。
提案手法は,従来の手法と同様の制御機構をユーザに提供するとともに,従来のSOTAアプローチを克服し,従来の手法のフルフレーム性を保ちながら,従来のSOTAアプローチを克服することを可能にする。
多様な実世界のデータセットに対する大規模な実験は,提案手法の汎用性を実証している。
提案手法は,下流アプリケーションにおける結果を含む質的,定量的両面で,様々なフルフレーム合成モデルの性能を一貫して改善する。
関連論文リスト
- Tuning-Free Multi-Event Long Video Generation via Synchronized Coupled Sampling [81.37449968164692]
ビデオ全体にわたってデノイングパスを同期する新しい推論フレームワークであるシンクロナイズド結合サンプリング(SynCoS)を提案する。
提案手法は, シームレスな局所遷移を保証し, グローバルコヒーレンスを強制する2つの相補的なサンプリング戦略を組み合わせる。
大規模な実験により、SynCoSは、よりスムーズな遷移とより優れた長距離コヒーレンスを実現し、マルチイベント長ビデオ生成を大幅に改善することが示された。
論文 参考訳(メタデータ) (2025-03-11T16:43:45Z) - Low-Light Video Enhancement via Spatial-Temporal Consistent Decomposition [52.89441679581216]
低照度ビデオエンハンスメント(LLVE)は、激しい視認性とノイズに悩まされる動的または静的なシーンの復元を目指している。
本稿では、ビューに依存しない、ビューに依存しないコンポーネントを組み込んだ革新的なビデオ分解戦略を提案する。
我々のフレームワークは、既存のメソッドを一貫して上回り、新しいSOTAパフォーマンスを確立します。
論文 参考訳(メタデータ) (2024-05-24T15:56:40Z) - Harnessing Meta-Learning for Improving Full-Frame Video Stabilization [8.208892438376388]
我々は,これらのモデルを個々の入力ビデオシーケンスに適応させることにより,ビデオ安定化のための画素レベルの合成ソリューションの性能を向上させる新しい手法を提案する。
提案手法は,低レベルの視覚的手がかりを利用して,映像の安定性と品質を改善する。
論文 参考訳(メタデータ) (2024-03-06T12:31:02Z) - Upscale-A-Video: Temporal-Consistent Diffusion Model for Real-World
Video Super-Resolution [65.91317390645163]
Upscale-A-Videoは、ビデオアップスケーリングのためのテキストガイド付き遅延拡散フレームワークである。
ローカルでは、一時的なレイヤをU-NetとVAE-Decoderに統合し、短いシーケンス内で一貫性を維持する。
また、テキストプロンプトによってテクスチャ生成と調整可能なノイズレベルをガイドし、復元と生成のバランスを取ることで、柔軟性も向上する。
論文 参考訳(メタデータ) (2023-12-11T18:54:52Z) - Fast Full-frame Video Stabilization with Iterative Optimization [21.962533235492625]
ビデオ安定化のための合成データセットを用いた反復的最適化に基づく学習手法を提案する。
確率的流れ場に基づく2レベル(粗粒度)安定化アルゴリズムを開発した。
そこで本研究では,分割コンカレントアプローチを採用し,フルフレーム安定化ビューをレンダリングするための新しいマルチフレーム融合戦略を提案する。
論文 参考訳(メタデータ) (2023-07-24T13:24:19Z) - Neural Re-rendering for Full-frame Video Stabilization [144.9918806873405]
まず,高密度ワープ場を推定し,フルフレーム映像安定化のためのアルゴリズムを提案する。
フルフレーム安定化フレームは、隣接するフレームから歪んだコンテンツを融合することで合成することができる。
論文 参考訳(メタデータ) (2021-02-11T18:59:45Z) - Deep Motion Blind Video Stabilization [4.544151613454639]
この研究は、新しいデータセットの助けを借りて、ビデオ安定化の過度に複雑化した定式化を解消することを目的としている。
より厳密な生成技術を用いて,モーションブラインドフルフレーム映像の安定化学習に成功した。
本手法は,現在利用可能な最速ビデオ安定化方式よりも$sim3times$の高速化を実現する。
論文 参考訳(メタデータ) (2020-11-19T07:26:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。