論文の概要: Lighting the Darkness in the Deep Learning Era
- arxiv url: http://arxiv.org/abs/2104.10729v1
- Date: Wed, 21 Apr 2021 19:12:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 13:57:37.865884
- Title: Lighting the Darkness in the Deep Learning Era
- Title(参考訳): 深層学習時代の暗さを照らす
- Authors: Chongyi Li and Chunle Guo and Linghao Han and Jun Jiang and Ming-Ming
Cheng and Jinwei Gu and Chen Change Loy
- Abstract要約: 低照度画像強調(LLIE)は、照明の弱い環境で撮影された画像の知覚や解釈性を改善することを目的としている。
この分野における最近の進歩は、ディープラーニングベースのソリューションが支配的です。
アルゴリズム分類から未解決の未解決問題まで,さまざまな側面をカバーする包括的な調査を行う。
- 参考スコア(独自算出の注目度): 118.35081853500411
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-light image enhancement (LLIE) aims at improving the perception or
interpretability of an image captured in an environment with poor illumination.
Recent advances in this area are dominated by deep learning-based solutions,
where many learning strategies, network structures, loss functions, training
data, etc. have been employed. In this paper, we provide a comprehensive survey
to cover various aspects ranging from algorithm taxonomy to unsolved open
issues. To examine the generalization of existing methods, we propose a
large-scale low-light image and video dataset, in which the images and videos
are taken by different mobile phones' cameras under diverse illumination
conditions. Besides, for the first time, we provide a unified online platform
that covers many popular LLIE methods, of which the results can be produced
through a user-friendly web interface. In addition to qualitative and
quantitative evaluation of existing methods on publicly available and our
proposed datasets, we also validate their performance in face detection in the
dark. This survey together with the proposed dataset and online platform could
serve as a reference source for future study and promote the development of
this research field. The proposed platform and the collected methods, datasets,
and evaluation metrics are publicly available and will be regularly updated at
https://github.com/Li-Chongyi/Lighting-the-Darkness-in-the-Deep-Learning-Era-Open.
We will release our low-light image and video dataset.
- Abstract(参考訳): 低照度画像強調(LLIE)は、照明の弱い環境で撮影された画像の知覚や解釈性を改善することを目的としている。
この領域の最近の進歩は、多くの学習戦略、ネットワーク構造、損失関数、トレーニングデータなど、ディープラーニングベースのソリューションに支配されている。
雇用されています
本稿では,アルゴリズム分類から未解決の未解決問題まで,様々な側面をカバーする包括的な調査を行う。
既存の方法の一般化を検討するため,多彩な照明条件下で異なる携帯電話のカメラで映像や映像を撮影する大規模低照度画像・映像データセットを提案する。
さらに、私たちは初めて、多くの人気のあるllieメソッドをカバーする統一オンラインプラットフォームを提供し、その結果はユーザーフレンドリーなwebインターフェースを通じて作成できます。
公開および提案するデータセットにおける既存手法の質的・定量的評価に加えて,暗闇における顔検出における性能の検証を行った。
本調査は,提案したデータセットおよびオンラインプラットフォームとともに,今後の研究の参考資料として機能し,研究分野の発展を促進する。
提案されているプラットフォームと収集されたメソッド、データセット、評価メトリクスは、https://github.com/Li-Chongyi/Lighting-the-Darkness-in-the-Deep-Learning-Era-Openで定期的に更新される。
低照度画像とビデオデータセットをリリースします。
関連論文リスト
- Deep Learning-based Image and Video Inpainting: A Survey [47.53641171826598]
本稿では,深層学習に基づく画像と映像のインペイント手法について概観的にレビューする。
既存のメソッドを,ハイレベルなインペイントパイプラインの観点から,さまざまなカテゴリに分類する。
我々は,低レベルの画素と高レベルの知覚的類似性の評価指標を提示し,性能評価を行い,代表印字方法の長所と短所について議論する。
論文 参考訳(メタデータ) (2024-01-07T05:50:12Z) - ClassLIE: Structure- and Illumination-Adaptive Classification for
Low-Light Image Enhancement [17.51201873607536]
本稿では,CNN と変換器のポテンシャルを組み合わせた新しいフレームワーク ClassLIE を提案する。
低照度画像から、全体的かつ局所的に構造的および照明的情報を分類し、適応的に学習する。
5つのベンチマークデータセットの実験は、私たちのClassLIEが新しい最先端のパフォーマンスを達成することを一貫して示しています。
論文 参考訳(メタデータ) (2023-12-20T18:43:20Z) - Improving Lens Flare Removal with General Purpose Pipeline and Multiple
Light Sources Recovery [69.71080926778413]
フレアアーティファクトは、画像の視覚的品質と下流のコンピュータビジョンタスクに影響を与える。
現在の方法では、画像信号処理パイプラインにおける自動露光やトーンマッピングは考慮されていない。
本稿では、ISPを再検討し、より信頼性の高い光源回収戦略を設計することで、レンズフレア除去性能を向上させるソリューションを提案する。
論文 参考訳(メタデータ) (2023-08-31T04:58:17Z) - Deep Image Deblurring: A Survey [165.32391279761006]
低レベルのコンピュータビジョンにおいて、デブロアリングは古典的な問題であり、ぼやけた入力画像からシャープなイメージを復元することを目的としている。
近年のディープラーニングの進歩は、この問題の解決に大きな進歩をもたらした。
論文 参考訳(メタデータ) (2022-01-26T01:31:30Z) - NOD: Taking a Closer Look at Detection under Extreme Low-Light
Conditions with Night Object Detection Dataset [25.29013780731876]
低い光は、以前考えられていたよりもマシン認知にとって困難である。
夜間に街路で撮影されたダイナミックなシーンを示す大規模なデータセットを提示する。
本稿では,画像強調モジュールをオブジェクト検出フレームワークと2つの新しいデータ拡張手法に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-10-20T03:44:04Z) - Scene Inference for Object Illumination Editing [24.529871334658573]
IHデータセットと呼ばれる大規模で高品質なデータセットを作成するために,物理ベースのレンダリング手法を適用した。
また,多タスク協調ネットワークである深層学習に基づくSI-GAN法を提案し,オブジェクトの照明を編集する。
提案したSI-GANは,画像ベースのオブジェクト照明編集のための実用的で効果的なソリューションであり,最先端の手法に対する手法の優位性を検証している。
論文 参考訳(メタデータ) (2021-07-31T05:02:52Z) - Physically Inspired Dense Fusion Networks for Relighting [45.66699760138863]
物理的洞察でニューラルネットワークを豊かにするモデルを提案する。
2つの異なる戦略により、新しい照明設定でリライト画像を生成します。
提案手法は,よく知られた忠実度指標と知覚的損失の点で,最先端手法を上回ることができることを示す。
論文 参考訳(メタデータ) (2021-05-05T17:33:45Z) - Stereo Matching by Self-supervision of Multiscopic Vision [65.38359887232025]
カメラ位置の整列で撮影した複数の画像を利用したステレオマッチングのための新しい自己監視フレームワークを提案する。
ネットワークを最適化するために、クロスフォトメトリックロス、不確実性を認識した相互監督損失、および新しい平滑性損失が導入されます。
我々のモデルは、KITTIデータセット上の以前の教師なし手法よりも、より良い不均一性マップを得る。
論文 参考訳(メタデータ) (2021-04-09T02:58:59Z) - Multi-Modal Fingerprint Presentation Attack Detection: Evaluation On A
New Dataset [9.783887684870654]
フィンガープリントによるプレゼンテーション攻撃の検出は、ますます困難な問題になりつつある。
本研究は,最近導入された複数のセンサ・モダリティの有用性について考察する。
完全畳み込み型ディープニューラルネットワークフレームワークを用いて包括的解析を行った。
論文 参考訳(メタデータ) (2020-06-12T22:38:23Z) - Image Segmentation Using Deep Learning: A Survey [58.37211170954998]
イメージセグメンテーションは、画像処理とコンピュータビジョンにおいて重要なトピックである。
深層学習モデルを用いた画像セグメンテーション手法の開発を目的とした研究が,これまでに数多く行われている。
論文 参考訳(メタデータ) (2020-01-15T21:37:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。