論文の概要: Learning Event-guided Exposure-agnostic Video Frame Interpolation via Adaptive Feature Blending
- arxiv url: http://arxiv.org/abs/2510.22565v1
- Date: Sun, 26 Oct 2025 07:44:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 19:54:32.535195
- Title: Learning Event-guided Exposure-agnostic Video Frame Interpolation via Adaptive Feature Blending
- Title(参考訳): 適応的特徴ブレンディングによるイベント誘導露光非依存ビデオフレーム補間学習
- Authors: Junsik Jung, Yoonki Cho, Woo Jae Kim, Lin Wang, Sune-eui Yoon,
- Abstract要約: 露出に依存しないビデオフレーム(VFI)のための新しいイベント誘導フレームワークを提案する。
我々のフレームワークは、Target-Adaptive Event Smpling (TES)とTarget-Adaptive Importance Mapping (TIM)を使っている。
合成と実世界の両方のデータセットの実験は、露光に依存しないVFIシナリオにおける我々のアプローチの有効性を実証している。
- 参考スコア(独自算出の注目度): 13.243625558893767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exposure-agnostic video frame interpolation (VFI) is a challenging task that aims to recover sharp, high-frame-rate videos from blurry, low-frame-rate inputs captured under unknown and dynamic exposure conditions. Event cameras are sensors with high temporal resolution, making them especially advantageous for this task. However, existing event-guided methods struggle to produce satisfactory results on severely low-frame-rate blurry videos due to the lack of temporal constraints. In this paper, we introduce a novel event-guided framework for exposure-agnostic VFI, addressing this limitation through two key components: a Target-adaptive Event Sampling (TES) and a Target-adaptive Importance Mapping (TIM). Specifically, TES samples events around the target timestamp and the unknown exposure time to better align them with the corresponding blurry frames. TIM then generates an importance map that considers the temporal proximity and spatial relevance of consecutive features to the target. Guided by this map, our framework adaptively blends consecutive features, allowing temporally aligned features to serve as the primary cues while spatially relevant ones offer complementary support. Extensive experiments on both synthetic and real-world datasets demonstrate the effectiveness of our approach in exposure-agnostic VFI scenarios.
- Abstract(参考訳): 露光非依存ビデオフレーム補間(VFI)は、未知のダイナミックな露光条件下で捉えた、ぼやけた、低フレームレートの入力から、シャープで高フレームレートのビデオを復元することを目的とした課題である。
イベントカメラは、高時間分解能のセンサーであり、特にこのタスクに有利である。
しかし,既存のイベント誘導方式では,時間的制約の欠如により,低フレームレートのぼやけたビデオに満足な結果が得られない。
本稿では、この制限を2つの重要なコンポーネント、Target-Adaptive Event Sampling (TES) とTarget-Adaptive Importance Mapping (TIM) を通じて解決する、露出に依存しないVFIのための新しいイベント誘導フレームワークを提案する。
具体的には、TESはターゲットのタイムスタンプと未知の露光時間に関するイベントをサンプリングし、対応するぼやけたフレームとよりよく一致させる。
その後、TIMは、目標に対する連続した特徴の時間的近接性と空間的関連性を考慮した重要写像を生成する。
本手法は,本手法を適応的に組み合わせることで,時間的に整列した特徴が主目的として機能し,空間的に関連する特徴が相補的サポートを提供する。
人工と実世界の両方のデータセットに対する大規模な実験は、露光に依存しないVFIシナリオにおける我々のアプローチの有効性を実証している。
関連論文リスト
- MATE: Motion-Augmented Temporal Consistency for Event-based Point Tracking [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
事象の間隔に起因する曖昧さを解決するため、運動誘導モジュールは運動ベクトルを局所的なマッチングプロセスに組み込む。
このメソッドは、任意のポイントベースラインのイベントのみのトラッキングに対して、$Survival_50$メトリックを17.9%改善する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - CMTA: Cross-Modal Temporal Alignment for Event-guided Video Deblurring [44.30048301161034]
ビデオデブロアリングは、隣接するビデオフレームから情報を集めることで、モーションレッドビデオの復元結果の品質を高めることを目的としている。
1) フレーム内機能拡張は, 単一のぼやけたフレームの露出時間内で動作し, 2) フレーム間時間的特徴アライメントは, 重要な長期時間情報を対象のフレームに収集する。
提案手法は, 合成および実世界のデブロアリングデータセットを用いた広範囲な実験により, 最先端のフレームベースおよびイベントベース動作デブロアリング法より優れていることを示す。
論文 参考訳(メタデータ) (2024-08-27T10:09:17Z) - Event-based Video Frame Interpolation with Edge Guided Motion Refinement [28.331148083668857]
本稿では,イベント信号のエッジ特徴を効果的に活用するためのエンドツーエンドE-VFI学習手法を提案する。
提案手法にはエッジガイド・アテンテーティブ(EGA)モジュールが組み込まれており,アテンテーティブアグリゲーションによって推定された映像の動きを補正する。
合成データと実データの両方を用いた実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-04-28T12:13:34Z) - Event-assisted Low-Light Video Object Segmentation [47.28027938310957]
イベントカメラは、このような低照度条件下でオブジェクトの可視性を高め、VOSメソッドを支援することを約束する。
本稿では、イベントカメラデータを利用してセグメンテーション精度を向上させる、低照度VOSに適した先駆的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-02T13:41:22Z) - Recovering Continuous Scene Dynamics from A Single Blurry Image with
Events [58.7185835546638]
インプリシットビデオ関数(IVF)は、同時イベントを伴う単一の動きのぼやけた画像を表現する。
両モードの利点を効果的に活用するために、二重注意変換器を提案する。
提案するネットワークは,限られた参照タイムスタンプの地平線画像の監督のみで訓練される。
論文 参考訳(メタデータ) (2023-04-05T18:44:17Z) - Joint Video Multi-Frame Interpolation and Deblurring under Unknown
Exposure Time [101.91824315554682]
本研究では,より現実的で挑戦的なタスク – 複数フレームのジョイントビデオと,未知の露光時間下での劣化 – を野心的に目標とする。
我々はまず,入力されたぼやけたフレームから露出認識表現を構築するために,教師付きコントラスト学習の変種を採用する。
次に、プログレッシブ露光適応型畳み込みと動き改善による露出と動きの表現に基づいて、映像再構成ネットワークを構築した。
論文 参考訳(メタデータ) (2023-03-27T09:43:42Z) - A Unified Framework for Event-based Frame Interpolation with Ad-hoc Deblurring in the Wild [72.0226493284814]
本稿では,デブロリングアドホックを行うイベントベースフレームの統一フレームワークを提案する。
我々のネットワークは、フレーム上の従来の最先端の手法、単一画像のデブロアリング、および両者のジョイントタスクを一貫して上回ります。
論文 参考訳(メタデータ) (2023-01-12T18:19:00Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。