論文の概要: DeflareMamba: Hierarchical Vision Mamba for Contextually Consistent Lens Flare Removal
- arxiv url: http://arxiv.org/abs/2508.02113v1
- Date: Mon, 04 Aug 2025 06:49:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.210084
- Title: DeflareMamba: Hierarchical Vision Mamba for Contextually Consistent Lens Flare Removal
- Title(参考訳): DeflareMamba: コンテキスト整合性レンズフレア除去のための階層型視覚マンバ
- Authors: Yihang Huang, Yuanfei Huang, Junhui Lin, Hua Huang,
- Abstract要約: レンズフレア除去のためのシーケンスモデルであるDeflareMambaを提案する。
提案手法は, 散乱や反射フレアなど, 様々な種類のフレアアーティファクトを効果的に除去するものである。
さらに下流のアプリケーションでは、視覚的オブジェクト認識とモーダル間セマンティック理解を改善するための手法の能力を示す。
- 参考スコア(独自算出の注目度): 14.87987455441087
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Lens flare removal remains an information confusion challenge in the underlying image background and the optical flares, due to the complex optical interactions between light sources and camera lens. While recent solutions have shown promise in decoupling the flare corruption from image, they often fail to maintain contextual consistency, leading to incomplete and inconsistent flare removal. To eliminate this limitation, we propose DeflareMamba, which leverages the efficient sequence modeling capabilities of state space models while maintains the ability to capture local-global dependencies. Particularly, we design a hierarchical framework that establishes long-range pixel correlations through varied stride sampling patterns, and utilize local-enhanced state space models that simultaneously preserves local details. To the best of our knowledge, this is the first work that introduces state space models to the flare removal task. Extensive experiments demonstrate that our method effectively removes various types of flare artifacts, including scattering and reflective flares, while maintaining the natural appearance of non-flare regions. Further downstream applications demonstrate the capacity of our method to improve visual object recognition and cross-modal semantic understanding. Code is available at https://github.com/BNU-ERC-ITEA/DeflareMamba.
- Abstract(参考訳): レンズフレア除去は、光源とカメラレンズの間の複雑な光学的相互作用のため、基礎となる画像背景と光学フレアの間で情報混乱の課題である。
近年のソリューションでは、フレアの破損を画像から切り離すことが約束されているが、コンテキスト整合性の維持に失敗することが多く、不完全で一貫性のないフレア除去につながっている。
この制限を回避するために、状態空間モデルの効率的なシーケンスモデリング機能を活用しながら、局所的な言語依存を捕捉する能力を維持したDeflareMambaを提案する。
特に,様々なストライドサンプリングパターンを通じて長距離画素相関を確立する階層的枠組みを設計し,局所的な詳細を同時に保存する局所拡張状態空間モデルを利用する。
我々の知る限りでは、これはフレア除去タスクに状態空間モデルを導入する最初の作業である。
本手法は, 非フレア領域の自然外観を維持しつつ, 散乱や反射フレアを含む様々な種類のフレアアーティファクトを効果的に除去することを示した。
さらに下流のアプリケーションでは、視覚的オブジェクト認識とモーダル間セマンティック理解を改善するための手法の能力を示す。
コードはhttps://github.com/BNU-ERC-ITEA/DeflareMambaで入手できる。
関連論文リスト
- Disentangle Nighttime Lens Flares: Self-supervised Generation-based Lens Flare Removal [18.825840100537174]
レンズフレアは、光の反射やセンサーアレイ内の屈折から発生し、光、反射フレア、反射フレアなど様々な種類がある。
既存の方法は1つの特定の型のみに特化しており、複数の型付きレンズフレアの同時発生を見落としている。
本稿では,自己監督型レンズフレア除去ネットワーク(SGLFR-Net)を提案する。
論文 参考訳(メタデータ) (2025-02-15T08:04:38Z) - ExpRDiff: Short-exposure Guided Diffusion Model for Realistic Local Motion Deblurring [61.82010103478833]
そこで本稿では,コンテキストベースの局所的ぼかし検出モジュールを開発し,さらにコンテキスト情報を加えて,ぼかし領域の識別を改善する。
最新のスマートフォンには、短時間露光画像を提供するカメラが備わっていることを考慮し、ぼやけたガイド付き画像復元法を開発した。
上記のコンポーネントを ExpRDiff という名前のシンプルで効果的なネットワークに定式化します。
論文 参考訳(メタデータ) (2024-12-12T11:42:39Z) - GN-FR:Generalizable Neural Radiance Fields for Flare Removal [11.646119341279164]
レンズフレアの影響を受けやすい入力画像のスパース集合からフレアフリービューを描画するフレームワークを提案する。
782枚の画像と80枚の実フレアパターンを持つ17枚の実フレアシーンと、それに対応する注釈付きフレア占有マスクからなる3次元多視点フレアデータセットを提案する。
論文 参考訳(メタデータ) (2024-12-11T08:43:52Z) - DiffUHaul: A Training-Free Method for Object Dragging in Images [78.93531472479202]
DiffUHaulと呼ばれるオブジェクトドラッグタスクのためのトレーニング不要な手法を提案する。
まず、各認知段階に注意マスキングを適用して、各生成を異なるオブジェクトにまたがってよりゆがみやすくする。
初期のデノナイジングステップでは、ソース画像とターゲット画像の注意特徴を補間して、新しいレイアウトを元の外観とスムーズに融合させる。
論文 参考訳(メタデータ) (2024-06-03T17:59:53Z) - Fine-grained Image-to-LiDAR Contrastive Distillation with Visual Foundation Models [55.99654128127689]
Visual Foundation Models (VFM) は、弱い教師付きピクセル対ポイントのコントラスト蒸留のためのセマンティックラベルを生成するために使用される。
我々は,空間分布とカテゴリー周波数の不均衡に対応するために,点のサンプリング確率を適応させる。
我々の手法は、下流タスクにおける既存の画像からLiDARへのコントラスト蒸留法を一貫して超越している。
論文 参考訳(メタデータ) (2024-05-23T07:48:19Z) - Harmonizing Light and Darkness: A Symphony of Prior-guided Data Synthesis and Adaptive Focus for Nighttime Flare Removal [44.35766203309201]
インセンス光源は、夜間に撮影画像にフレアを発生させることが多く、視覚的品質を劣化させ、下流の用途に悪影響を及ぼす。
効果的なフレア除去ネットワークをトレーニングするためには、信頼できるデータセットが不可欠である。
フレアの明るさが照明法則に合致するマルチフレア画像を含むフレア7K*という先行誘導型データセットを合成する。
クリーンな背景領域を適応的にマスキングし,フレアに強く影響された領域にフォーカスするモデルを支援するためのプラグイン・アンド・プレイ適応型フォーカス・モジュール (AFM) を提案する。
論文 参考訳(メタデータ) (2024-03-30T10:37:56Z) - Improving Lens Flare Removal with General Purpose Pipeline and Multiple
Light Sources Recovery [69.71080926778413]
フレアアーティファクトは、画像の視覚的品質と下流のコンピュータビジョンタスクに影響を与える。
現在の方法では、画像信号処理パイプラインにおける自動露光やトーンマッピングは考慮されていない。
本稿では、ISPを再検討し、より信頼性の高い光源回収戦略を設計することで、レンズフレア除去性能を向上させるソリューションを提案する。
論文 参考訳(メタデータ) (2023-08-31T04:58:17Z) - Toward Real Flare Removal: A Comprehensive Pipeline and A New Benchmark [12.1632995709273]
本稿では,フレア劣化を伴うデータペア生成手法を提案する。
散乱フレアの類似性と反射ゴーストの対称効果を実現する。
また,散乱と反射フレアの影響をそれぞれ処理する実写パイプラインを構築した。
論文 参考訳(メタデータ) (2023-06-28T02:57:25Z) - CamDiff: Camouflage Image Augmentation via Diffusion Model [83.35960536063857]
CamDiffは、カモフラージュされたシーンで透明なオブジェクトを合成するための新しいアプローチだ。
我々は,潜伏拡散モデルを用いて,カモフラージュされたシーンで有能な物体を合成する。
当社のアプローチでは、フレキシブルな編集と大規模データセットの効率的な生成を低コストで実現している。
論文 参考訳(メタデータ) (2023-04-11T19:37:47Z) - Unsupervised Foggy Scene Understanding via Self Spatial-Temporal Label
Diffusion [51.11295961195151]
運転シーンの霧画像列の特徴を利用して、自信ある擬似ラベルを密度化する。
局所的な空間的類似性と逐次画像データの隣接時間対応の2つの発見に基づいて,新たなターゲット・ドメイン駆動擬似ラベル拡散方式を提案する。
本手法は,2つの天然霧のデータセット上で51.92%,53.84%の平均交叉結合(mIoU)を達成するのに有効である。
論文 参考訳(メタデータ) (2022-06-10T05:16:50Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。