論文の概要: Geometric-Aware Low-Light Image and Video Enhancement via Depth Guidance
- arxiv url: http://arxiv.org/abs/2312.15855v1
- Date: Tue, 26 Dec 2023 02:45:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 16:08:09.880583
- Title: Geometric-Aware Low-Light Image and Video Enhancement via Depth Guidance
- Title(参考訳): 深度誘導による幾何アウェア低光度画像と映像エンハンスメント
- Authors: Yingqi Lin, Xiaogang Xu, Yan Han, Jiafei Wu, Zhe Liu
- Abstract要約: 低照度向上(LLE)は、低照度条件下で撮影された写真やビデオの品質向上を目的としている。
既存のLLE法の多くは幾何学的モデリングを生かしていない点に注意が必要である。
本稿では,LLEの低照度化モデルの学習を支援するために,GG-LLERF(Geometry-Guided Low-Light Enhancement Refine Framework)を提案する。
- 参考スコア(独自算出の注目度): 19.350313166180747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-Light Enhancement (LLE) is aimed at improving the quality of
photos/videos captured under low-light conditions. It is worth noting that most
existing LLE methods do not take advantage of geometric modeling. We believe
that incorporating geometric information can enhance LLE performance, as it
provides insights into the physical structure of the scene that influences
illumination conditions. To address this, we propose a Geometry-Guided
Low-Light Enhancement Refine Framework (GG-LLERF) designed to assist low-light
enhancement models in learning improved features for LLE by integrating
geometric priors into the feature representation space. In this paper, we
employ depth priors as the geometric representation. Our approach focuses on
the integration of depth priors into various LLE frameworks using a unified
methodology. This methodology comprises two key novel modules. First, a
depth-aware feature extraction module is designed to inject depth priors into
the image representation. Then, Hierarchical Depth-Guided Feature Fusion Module
(HDGFFM) is formulated with a cross-domain attention mechanism, which combines
depth-aware features with the original image features within the LLE model. We
conducted extensive experiments on public low-light image and video enhancement
benchmarks. The results illustrate that our designed framework significantly
enhances existing LLE methods.
- Abstract(参考訳): 低照度向上(LLE)は、低照度条件下で撮影された写真やビデオの品質向上を目的としている。
既存のlle法の多くが幾何学的モデリングを活用していない点に注意が必要だ。
照明条件に影響を与えるシーンの物理的構造に関する洞察を提供するため,幾何学的情報を取り入れることでLLE性能を向上させることができると考えている。
そこで本研究では,lleの低光度エンハンスメントモデルを支援するために,特徴表現空間に幾何学的事前情報を統合することにより,lleの機能改善を学習する手法を提案する。
本稿では,幾何表現として深さ優先を用いる。
提案手法は, 統一手法を用いて, 奥行き先を様々なLLEフレームワークに統合することに焦点を当てる。
この手法は2つの重要な新しいモジュールから構成される。
まず、奥行き認識機能抽出モジュールは、画像表現に奥行き事前を注入するように設計されている。
次に,階層型深度誘導機能融合モジュール(HDGFFM)を,深度認識機能とLLEモデル内の元の画像特徴を組み合わせたクロスドメインアテンション機構で構成する。
公開低光度画像と映像エンハンスメントベンチマークについて広範な実験を行った。
その結果,設計したフレームワークは既存のLLEメソッドを大幅に強化することがわかった。
関連論文リスト
- Multi-Head Attention Residual Unfolded Network for Model-Based Pansharpening [2.874893537471256]
展開融合法は、ディープラーニングの強力な表現能力とモデルベースアプローチの堅牢性を統合する。
本稿では,衛星画像融合のためのモデルに基づく深部展開手法を提案する。
PRISMA、Quickbird、WorldView2データセットの実験結果から、本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2024-09-04T13:05:00Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Towards Scalable Multi-View Reconstruction of Geometry and Materials [27.660389147094715]
本稿では,3次元シーンのカメラポーズ,オブジェクト形状,空間変化の両方向反射分布関数(svBRDF)のジョイントリカバリ手法を提案する。
入力は高解像度のRGBD画像であり、アクティブ照明用の点灯付き携帯型ハンドヘルドキャプチャシステムによってキャプチャされる。
論文 参考訳(メタデータ) (2023-06-06T15:07:39Z) - Semantic-aware Texture-Structure Feature Collaboration for Underwater
Image Enhancement [58.075720488942125]
水中画像の強調は海洋工学や水生ロボット工学において重要な技術として注目されている。
我々は,高レベルな意味認識事前学習モデルと協調して,効率的でコンパクトな拡張ネットワークを開発する。
また,提案手法を水中の有意な物体検出タスクに適用し,高レベルの視覚タスクに適した意味認識能力を明らかにする。
論文 参考訳(メタデータ) (2022-11-19T07:50:34Z) - Designing An Illumination-Aware Network for Deep Image Relighting [69.750906769976]
本稿では、階層的なサンプリングから1つの画像からシーンを段階的にリライトするためのガイダンスに従うイルミネーション・アウェア・ネットワーク(IAN)を提案する。
さらに、物理レンダリングプロセスの近似として、イルミネーション・アウェア・残留ブロック(IARB)が設計されている。
実験の結果,提案手法は従来の最先端手法よりも定量的,定性的な照準結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-07-21T16:21:24Z) - NeROIC: Neural Rendering of Objects from Online Image Collections [42.02832046768925]
本稿では,オンライン画像コレクションからオブジェクト表現を取得し,任意のオブジェクトの高品質な形状と材料特性をキャプチャする手法を提案する。
これにより、新規ビュー合成、リライト、調和した背景合成など、さまざまなオブジェクト中心のレンダリングアプリケーションが可能になる。
論文 参考訳(メタデータ) (2022-01-07T16:45:15Z) - DONet: Learning Category-Level 6D Object Pose and Size Estimation from
Depth Observation [53.55300278592281]
単一深度画像からカテゴリレベルの6次元オブジェクト・ポースとサイズ推定(COPSE)を提案する。
筆者らのフレームワークは,深度チャネルのみの物体のリッチな幾何学的情報に基づいて推論を行う。
我々のフレームワークは、ラベル付き現実世界の画像を必要とする最先端のアプローチと競合する。
論文 参考訳(メタデータ) (2021-06-27T10:41:50Z) - Learning Monocular Depth in Dynamic Scenes via Instance-Aware Projection
Consistency [114.02182755620784]
本稿では,複数の動的物体の6-DoF動作,エゴモーション,深度を,監督なしで一眼レフカメラで明示的にモデル化する,エンドツーエンドのジョイントトレーニングフレームワークを提案する。
筆者らのフレームワークは,最先端の深度・動き推定法より優れていた。
論文 参考訳(メタデータ) (2021-02-04T14:26:42Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。