論文の概要: No Labels, No Look-Ahead: Unsupervised Online Video Stabilization with Classical Priors
- arxiv url: http://arxiv.org/abs/2602.23141v1
- Date: Thu, 26 Feb 2026 16:04:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.762909
- Title: No Labels, No Look-Ahead: Unsupervised Online Video Stabilization with Classical Priors
- Title(参考訳): ラベルなし、見た目なし:昔ながらのオンラインビデオの安定化
- Authors: Tao Liu, Gang Wan, Kan Ren, Shibo Wen,
- Abstract要約: オンラインビデオ安定化のための新しい教師なしフレームワークを提案する。
ペア化された安定なデータセットと不安定なデータセットを必要とするディープラーニングに基づく手法とは異なり、我々の手法は古典的な安定化パイプラインを3段階でインスタンス化する。
この設計は、制限されたデータ、制御性の低さ、制約されたリソースを持つハードウェア上での非効率という、エンドツーエンドの学習における3つの長年にわたる課題に対処する。
- 参考スコア(独自算出の注目度): 13.656039162358086
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a new unsupervised framework for online video stabilization. Unlike methods based on deep learning that require paired stable and unstable datasets, our approach instantiates the classical stabilization pipeline with three stages and incorporates a multithreaded buffering mechanism. This design addresses three longstanding challenges in end-to-end learning: limited data, poor controllability, and inefficiency on hardware with constrained resources. Existing benchmarks focus mainly on handheld videos with a forward view in visible light, which restricts the applicability of stabilization to domains such as UAV nighttime remote sensing. To fill this gap, we introduce a new multimodal UAV aerial video dataset (UAV-Test). Experiments show that our method consistently outperforms state-of-the-art online stabilizers in both quantitative metrics and visual quality, while achieving performance comparable to offline methods.
- Abstract(参考訳): オンラインビデオ安定化のための新しい教師なしフレームワークを提案する。
ペア化された安定なデータセットと不安定なデータセットを必要とするディープラーニングに基づく手法とは異なり、我々の手法は古典的な安定化パイプラインを3つのステージでインスタンス化し、マルチスレッドバッファリング機構を組み込む。
この設計は、制限されたデータ、制御性の低さ、制約されたリソースを持つハードウェア上での非効率という、エンドツーエンドの学習における3つの長年にわたる課題に対処する。
既存のベンチマークは、主に可視光のフォワードビューを備えたハンドヘルドビデオに焦点を当てており、UAV夜間リモートセンシングのような領域への安定化の適用性を制限している。
このギャップを埋めるために、我々は新しいUAV空中ビデオデータセット(UAV-Test)を導入する。
実験の結果,本手法は,オフライン手法に匹敵する性能を保ちながら,定量的指標と視覚的品質の両方において,最先端のオンライン安定化器を一貫して上回っていることがわかった。
関連論文リスト
- FFP-300K: Scaling First-Frame Propagation for Generalizable Video Editing [97.35186681023025]
FFP-300Kは、720p解像度と81フレームの高忠実度ビデオペアの大規模データセットである。
本稿では,第1フレームの外観維持とソース映像の動作保存の緊張を解消する,真の誘導不要なFFPのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-05T01:46:22Z) - DiVE: Efficient Multi-View Driving Scenes Generation Based on Video Diffusion Transformer [56.98400572837792]
DiVEは高忠実で、時間的コヒーレントで、相互に一貫したマルチビュービデオを生成する。
これらの革新は総じて、最小品質の劣化を伴う2.62倍のスピードアップを達成する。
論文 参考訳(メタデータ) (2025-04-28T09:20:50Z) - CLIP-TSA: CLIP-Assisted Temporal Self-Attention for Weakly-Supervised
Video Anomaly Detection [3.146076597280736]
ビデオ異常検出(VAD)は、ビデオ監視において、異常のフレームをトリミングされていないビデオにローカライズする必要がある難しい問題である。
筆者らはまず,従来のC3DやI3Dと対照的に,CLIPの視覚的特徴をViTエンコードすることで,新しい手法の識別表現を効率的に抽出することを提案する。
提案したCLIP-TSAは、VAD問題における3つの一般的なベンチマークデータセットに対して、既存の最先端(SOTA)メソッドよりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-12-09T22:28:24Z) - Minimum Latency Deep Online Video Stabilization [77.68990069996939]
本稿では,オンラインビデオ安定化作業のための新しいカメラパス最適化フレームワークを提案する。
本研究では,近年の市販の高品位深度モーションモデルを用いて動き推定を行い,カメラの軌道を復元する。
我々の手法は、定性的にも量的にも最先端のオンライン手法を大きく上回っている。
論文 参考訳(メタデータ) (2022-12-05T07:37:32Z) - Self-Supervised Multi-Frame Monocular Scene Flow [61.588808225321735]
自己監督学習に基づくマルチフレーム一眼的シーンフローネットワークを導入。
自己監督学習に基づく単眼的シーンフロー法における最新の精度を観察する。
論文 参考訳(メタデータ) (2021-05-05T17:49:55Z) - DUT: Learning Video Stabilization by Simply Watching Unstable Videos [86.88635774560017]
本稿では,Deep Unsupervised Trajectory-based stabilization framework (DUT)を提案する。
DUTは、教師なしのディープラーニング方式で軌道を明示的に推定し、滑らかにすることで、不安定なビデオを安定化する最初の試みである。
公開ベンチマーク実験の結果、DUTは定性的にも量的にも代表的最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-11-30T06:48:20Z) - Diagnosing and Preventing Instabilities in Recurrent Video Processing [23.39527368516591]
ビデオの安定性モデルは、長時間の可視化において、推論時に破滅的に失敗する傾向があることを示す。
本稿では,不安定性の引き金に最適化された逆入力シーケンスを生成する診断ツールを提案する。
次に、これらの制約を強制する新しいアルゴリズムであるSRNL(Stable Rank Normalization of the Layers)を導入する。
論文 参考訳(メタデータ) (2020-10-10T21:39:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。