論文の概要: RED: Robust Event-Guided Motion Deblurring with Modality-Specific Disentangled Representation
- arxiv url: http://arxiv.org/abs/2509.05554v1
- Date: Sat, 06 Sep 2025 01:07:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.581013
- Title: RED: Robust Event-Guided Motion Deblurring with Modality-Specific Disentangled Representation
- Title(参考訳): RED: モダリティに特有なアンタングル表現を備えたロバストイベントガイドモーション
- Authors: Yihong Leng, Siming Zheng, Jinwei Chen, Bo Li, Jiaojiao Li, Peng-Tao Jiang,
- Abstract要約: イベントカメラは、時間的に高時間分解能なモーション情報を提供する。
本稿では,モダリティ特異的な不整合表現を備えたロバストイベント誘導型デブロワーリングネットワークを提案する。
合成データセットと実世界のデータセットの実験では、REDは精度と堅牢性の両方において、最先端のパフォーマンスを一貫して達成している。
- 参考スコア(独自算出の注目度): 25.898452981956364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras provide sparse yet temporally high-temporal-resolution motion information, demonstrating great potential for motion deblurring. Existing methods focus on cross-modal interaction, overlooking the inherent incompleteness of event streams, which arises from the trade-off between sensitivity and noise introduced by the thresholding mechanism of Dynamic Vision Sensors (DVS). Such degradation compromises the integrity of motion priors and limits the effectiveness of event-guided deblurring. To tackle these challenges, we propose a Robust Event-guided Deblurring (RED) network with modality-specific disentangled representation. First, we introduce a Robustness-Oriented Perturbation Strategy (RPS) that applies random masking to events, which exposes RED to incomplete patterns and then foster robustness against various unknown scenario conditions.Next, a disentangled OmniAttention is presented to explicitly model intra-motion, inter-motion, and cross-modality correlations from two inherently distinct but complementary sources: blurry images and partially disrupted events. Building on these reliable features, two interactive modules are designed to enhance motion-sensitive areas in blurry images and inject semantic context into incomplete event representations. Extensive experiments on synthetic and real-world datasets demonstrate RED consistently achieves state-of-the-art performance in both accuracy and robustness.
- Abstract(参考訳): イベントカメラは、わずかながら時間的に高分解能な動き情報を提供し、動きが鈍化する可能性を示す。
既存の手法は、ダイナミック・ビジョン・センサー(DVS)のしきい値設定機構によって生じる感度とノイズのトレードオフから生じるイベントストリームの固有の不完全性を見越して、モーダル間相互作用に重点を置いている。
このような劣化は、動きの先行性の完全性を損なうとともに、事象誘導消臭の有効性を制限する。
これらの課題に対処するため、モーダリティ特異的な不整合表現を備えたロバストイベント誘導型デブロワーリング(RED)ネットワークを提案する。
まず、不完全なパターンにREDを露出し、様々な未知のシナリオ条件に対して堅牢性を高めるイベントにランダムマスキングを適用するロバストネス指向摂動戦略(RPS)を導入し、さらに、不整合なOmniAttentionは、2つの本質的に異なる相補的ソースであるぼやけた画像と部分的に破壊されたイベントから、運動内、運動間、およびモダリティ間の相関を明示的にモデル化するために提示される。
これらの信頼性の高い機能に基づいて、2つのインタラクティブモジュールは、ぼやけた画像における動きに敏感な領域を強化し、セマンティックコンテキストを不完全なイベント表現に注入するように設計されている。
合成データセットと実世界のデータセットに関する大規模な実験では、REDは精度と堅牢性の両方において、最先端のパフォーマンスを一貫して達成している。
関連論文リスト
- SRSR: Enhancing Semantic Accuracy in Real-World Image Super-Resolution with Spatially Re-Focused Text-Conditioning [59.013863248600046]
本稿では,空間的に再焦点を絞ったテキストコンディショニングを推論時に洗練する超解像フレームワークを提案する。
第二に,非接地画素に対するテキストの影響を選択的に回避し,幻覚を防ぐ空間的自由誘導機構を導入する。
論文 参考訳(メタデータ) (2025-10-26T05:03:55Z) - HAD: Hierarchical Asymmetric Distillation to Bridge Spatio-Temporal Gaps in Event-Based Object Tracking [80.07224739976911]
イベントカメラは例外的な時間分解能と範囲(モード)を提供する
RGBカメラは高解像度でリッチテクスチャを捉えるのに優れていますが、イベントカメラは例外的な時間分解能とレンジ(モダル)を提供します。
論文 参考訳(メタデータ) (2025-10-22T13:15:13Z) - EIFNet: Leveraging Event-Image Fusion for Robust Semantic Segmentation [0.18416014644193066]
イベントカメラは、高ダイナミックレンジと微妙な時間分解能を提供し、挑戦的な環境で堅牢なシーン理解を実現する。
イベントとフレームベースの入力の長所を組み合わせたマルチモーダル融合ネットワーク EIFNet を提案する。
EIFNetは最先端のパフォーマンスを実現し、イベントベースのセマンティックセグメンテーションの有効性を示す。
論文 参考訳(メタデータ) (2025-07-29T16:19:55Z) - Feature Hallucination for Self-supervised Action Recognition [37.20267786858476]
本稿では,RGBビデオフレームからの動作概念と補助的特徴を共同で予測することにより,認識精度を向上させるディープトランスレーショナルアクション認識フレームワークを提案する。
本研究では,Kineetics-400,Kineetics-600,Something V2など,複数のベンチマーク上での最先端性能を実現する。
論文 参考訳(メタデータ) (2025-06-25T11:50:23Z) - ClearSight: Human Vision-Inspired Solutions for Event-Based Motion Deblurring [5.827705323847176]
本研究はバイオインスパイアされたデュアルドライブハイブリッドネットワーク(BDHNet)を紹介する。
ヒト視覚系における視覚的注意機構にインスパイアされた本研究では、バイオインスパイアされたデュアルドライブハイブリッドネットワーク(BDHNet)を導入する。
論文 参考訳(メタデータ) (2025-01-27T06:28:45Z) - MATE: Motion-Augmented Temporal Consistency for Event-based Point Tracking [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
事象の間隔に起因する曖昧さを解決するため、運動誘導モジュールは運動ベクトルを局所的なマッチングプロセスに組み込む。
このメソッドは、任意のポイントベースラインのイベントのみのトラッキングに対して、$Survival_50$メトリックを17.9%改善する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - Motion-aware Latent Diffusion Models for Video Frame Interpolation [51.78737270917301]
隣接するフレーム間の動き推定は、動きのあいまいさを避ける上で重要な役割を担っている。
我々は、新しい拡散フレームワーク、動き認識潜在拡散モデル(MADiff)を提案する。
提案手法は,既存手法を著しく上回る最先端性能を実現する。
論文 参考訳(メタデータ) (2024-04-21T05:09:56Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - Recovering Continuous Scene Dynamics from A Single Blurry Image with
Events [58.7185835546638]
インプリシットビデオ関数(IVF)は、同時イベントを伴う単一の動きのぼやけた画像を表現する。
両モードの利点を効果的に活用するために、二重注意変換器を提案する。
提案するネットワークは,限られた参照タイムスタンプの地平線画像の監督のみで訓練される。
論文 参考訳(メタデータ) (2023-04-05T18:44:17Z) - Event-based Image Deblurring with Dynamic Motion Awareness [10.81953574179206]
露光時間における実RGBのぼかし画像と関連する事象のペアを含む最初のデータセットを紹介する。
以上の結果より,PSNRは合成データで1.57dB,実イベントデータで1.08dBまで改善された。
論文 参考訳(メタデータ) (2022-08-24T09:39:55Z) - ProgressiveMotionSeg: Mutually Reinforced Framework for Event-Based
Motion Segmentation [101.19290845597918]
本稿では,動作推定 (ME) モジュールとイベントデノイング (ED) モジュールを相互に強化された方法で共同最適化する。
時間的相関をガイダンスとして、EDモジュールは各イベントが実活動イベントに属するという信頼度を算出し、MEモジュールに送信し、ノイズ抑制のための運動セグメンテーションのエネルギー関数を更新する。
論文 参考訳(メタデータ) (2022-03-22T13:40:26Z) - Motion Deblurring with Real Events [50.441934496692376]
本稿では,イベントベースの動作を自己教師型で記述するエンド・ツー・エンドの学習フレームワークを提案する。
実世界のイベントは、データ不整合によるパフォーマンス劣化を軽減するために利用される。
論文 参考訳(メタデータ) (2021-09-28T13:11:44Z) - Dynamic Dual-Attentive Aggregation Learning for Visible-Infrared Person
Re-Identification [208.1227090864602]
Visible-infrared person re-identification (VI-ReID) は、歩行者検索の課題である。
既存のVI-ReID法は、識別可能性に制限があり、ノイズの多い画像に対して弱いロバスト性を持つグローバル表現を学習する傾向にある。
そこで我々は,VI-ReIDのための動的二段階集合(DDAG)学習法を提案する。
論文 参考訳(メタデータ) (2020-07-18T03:08:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。