論文の概要: DINOLight: Robust Ambient Light Normalization with Self-supervised Visual Prior Integration
- arxiv url: http://arxiv.org/abs/2603.12579v1
- Date: Fri, 13 Mar 2026 02:25:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.852072
- Title: DINOLight: Robust Ambient Light Normalization with Self-supervised Visual Prior Integration
- Title(参考訳): DINOLight: 自己監督型視覚優先統合によるロバストな環境光正規化
- Authors: Youngjin Oh, Junhyeong Kwon, Nam Ik Cho,
- Abstract要約: アンビエント光の正規化は、複数の光源と複雑なシーンジオメトリによって引き起こされる、一様でない影と照明によって劣化した画像を復元することを目的としている。
我々はDINOv2が劣化画像から意味情報と幾何学的情報の両方を確実に抽出できることを観察した。
本稿では,異なるDINOv2層の特徴をポイントワイドソフトマックスマスクを用いて組み合わせた適応的特徴融合モジュールを提案する。
- 参考スコア(独自算出の注目度): 19.13863263345781
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a new ambient light normalization framework, DINOLight, that integrates the self-supervised model DINOv2's image understanding capability into the restoration process as a visual prior. Ambient light normalization aims to restore images degraded by non-uniform shadows and lighting caused by multiple light sources and complex scene geometries. We observe that DINOv2 can reliably extract both semantic and geometric information from a degraded image. Based on this observation, we develop a novel framework to utilize DINOv2 features for lighting normalization. First, we propose an adaptive feature fusion module that combines features from different DINOv2 layers using a point-wise softmax mask. Next, the fused features are integrated into our proposed restoration network in both spatial and frequency domains through an auxiliary cross-attention mechanism. Experiments show that DINOLight achieves superior performance on the Ambient6K dataset, and that DINOv2 features are effective for enhancing ambient light normalization. We also apply our method to shadow-removal benchmark datasets, achieving competitive results compared to methods that use mask priors. Codes will be released upon acceptance.
- Abstract(参考訳): 本稿では、自己教師型モデルであるDINOv2のイメージ理解機能を視覚的事前処理に組み込んだ、新しい環境光正規化フレームワークであるDINOLightを提案する。
アンビエント光の正規化は、複数の光源と複雑なシーンジオメトリによって引き起こされる、一様でない影と照明によって劣化した画像を復元することを目的としている。
我々はDINOv2が劣化画像から意味情報と幾何学的情報の両方を確実に抽出できることを観察した。
そこで本研究では,DINOv2の特徴を照明の正規化に利用するための新しいフレームワークを開発した。
まず,異なるDINOv2層の特徴をポイントワイド・ソフトマックスマスクを用いて組み合わせた適応的特徴融合モジュールを提案する。
次に, 空間領域と周波数領域の両方において, 補助的相互保持機構により融合した特徴を復元ネットワークに統合する。
実験により、DINOLightはAmbient6Kデータセットよりも優れた性能を示し、DINOv2機能は環境光の正規化を高めるのに有効であることが示された。
また,提案手法をシャドウ除去型ベンチマークデータセットに適用し,マスク前の手法と比較して競合的な結果が得られることを示した。
コードは受理後に公開される。
関連論文リスト
- PhaSR: Generalized Image Shadow Removal with Physically Aligned Priors [13.290464696196366]
PhaSR(Physically Aligned Shadow removal)を提案する。
実験では、複雑さを低減し、周囲の照明を一般化したシャドウ除去において、競争性能を示す。
論文 参考訳(メタデータ) (2026-01-24T14:15:41Z) - DIME-Net: A Dual-Illumination Adaptive Enhancement Network Based on Retinex and Mixture-of-Experts [7.6894262288762665]
本稿では,DIME-Netと呼ばれるデュアルイルミネーション向上フレームワークを提案する。
Retinex理論を統合することで、このモジュールは低照度画像とバックライト画像の両方に合わせた拡張を効果的に実行する。
DIME-Netは, 実世界の低照度データセットとバックライトデータセットの両方において, 再トレーニングを伴わずに, 競合性能を達成できることを示す。
論文 参考訳(メタデータ) (2025-08-19T15:17:47Z) - LightSwitch: Multi-view Relighting with Material-guided Diffusion [73.5965603000002]
LightSwitchは、新しいファインチューニングされたマテリアルライティング拡散フレームワークである。
我々の2Dリライティング予測品質は、画像から直接リライティングする過去の最先端リライティングよりも優れていることを示す。
論文 参考訳(メタデータ) (2025-08-08T17:59:52Z) - SAIGFormer: A Spatially-Adaptive Illumination-Guided Network for Low-Light Image Enhancement [58.79901582809091]
近年, トランスフォーマーを用いた低照度化手法は, 世界照明の回復に有望な進展をもたらした。
近年, トランスフォーマーを用いた低照度化手法は, 世界照明の回復に有望な進展をもたらした。
正確な照明復元を可能にする空間適応照明誘導変圧器フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-21T11:38:56Z) - DLEN: Dual Branch of Transformer for Low-Light Image Enhancement in Dual Domains [0.0]
低照度画像強調(LLE)は、低照度条件下で撮影された画像の視覚的品質を改善することを目的としている。
これらの問題は、物体検出、顔認識、自律運転などのコンピュータビジョンタスクのパフォーマンスを妨げる。
本稿では,2つの異なる注意機構を組み込んだ新しいアーキテクチャであるDual Light Enhance Network(DLEN)を提案する。
論文 参考訳(メタデータ) (2025-01-21T15:58:16Z) - CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - Physically Inspired Dense Fusion Networks for Relighting [45.66699760138863]
物理的洞察でニューラルネットワークを豊かにするモデルを提案する。
2つの異なる戦略により、新しい照明設定でリライト画像を生成します。
提案手法は,よく知られた忠実度指標と知覚的損失の点で,最先端手法を上回ることができることを示す。
論文 参考訳(メタデータ) (2021-05-05T17:33:45Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。