論文の概要: UMLE: Unsupervised Multi-discriminator Network for Low Light Enhancement
- arxiv url: http://arxiv.org/abs/2012.13177v2
- Date: Fri, 25 Dec 2020 02:36:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 15:55:35.290760
- Title: UMLE: Unsupervised Multi-discriminator Network for Low Light Enhancement
- Title(参考訳): UMLE:低光化のための教師なしマルチディスクリミネータネットワーク
- Authors: Yangyang Qu, Kai Chen, Chao Liu, Yongsheng Ou
- Abstract要約: 低照度シナリオはビジョンベースのアプリケーションに深刻な影響を与える。
複数判別器を含むリアルタイム非監視生成対人ネットワーク(GAN)を提案する。
本手法は, 定性評価および定量評価において, 最新の手法よりも優れていることが示唆された。
- 参考スコア(独自算出の注目度): 8.887169648516844
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Low-light image enhancement, such as recovering color and texture details
from low-light images, is a complex and vital task. For automated driving,
low-light scenarios will have serious implications for vision-based
applications. To address this problem, we propose a real-time unsupervised
generative adversarial network (GAN) containing multiple discriminators, i.e. a
multi-scale discriminator, a texture discriminator, and a color discriminator.
These distinct discriminators allow the evaluation of images from different
perspectives. Further, considering that different channel features contain
different information and the illumination is uneven in the image, we propose a
feature fusion attention module. This module combines channel attention with
pixel attention mechanisms to extract image features. Additionally, to reduce
training time, we adopt a shared encoder for the generator and the
discriminator. This makes the structure of the model more compact and the
training more stable. Experiments indicate that our method is superior to the
state-of-the-art methods in qualitative and quantitative evaluations, and
significant improvements are achieved for both autopilot positioning and
detection results.
- Abstract(参考訳): 低照度画像から色やテクスチャの詳細を復元するなど、低照度画像の強化は複雑で重要な課題である。
自動走行では、低照度シナリオが視覚ベースのアプリケーションに深刻な影響を与える。
この問題に対処するために,複数の識別器を含むリアルタイム非教師付き生成対向ネットワーク(GAN)を提案する。
マルチスケールの識別器、テクスチャ識別器、色識別器。
これらの識別器は異なる視点から画像を評価することができる。
さらに,異なるチャネル特徴に異なる情報が含まれており,照明が不均一であることを考慮し,特徴融合注意モジュールを提案する。
このモジュールは、チャンネルアテンションとピクセルアテンション機構を組み合わせて画像の特徴を抽出する。
さらに、トレーニング時間を短縮するために、ジェネレータと判別器に共有エンコーダを採用する。
これにより、モデルの構造はよりコンパクトになり、トレーニングはより安定する。
実験の結果,本手法は定性的・定量的評価において最先端手法よりも優れており,オートパイロット測位と検出結果の両方において有意な改善が得られた。
関連論文リスト
- A Non-Uniform Low-Light Image Enhancement Method with Multi-Scale
Attention Transformer and Luminance Consistency Loss [11.585269110131659]
低照度画像強調は、薄暗い環境で収集された画像の知覚を改善することを目的としている。
既存の方法では、識別された輝度情報を適応的に抽出することができず、露光過多や露光過多を容易に引き起こすことができる。
MSATrというマルチスケールアテンション変換器を提案し,光バランスの局所的・グローバル的特徴を十分に抽出し,視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-12-27T10:07:11Z) - LCPR: A Multi-Scale Attention-Based LiDAR-Camera Fusion Network for
Place Recognition [11.206532393178385]
本稿では,マルチモーダル位置認識のための新しいニューラルネットワークLCPRを提案する。
位置認識性能を向上させるために,マルチビューカメラとLiDARデータを効果的に利用することができる。
論文 参考訳(メタデータ) (2023-11-06T15:39:48Z) - SCANet: Self-Paced Semi-Curricular Attention Network for Non-Homogeneous
Image Dehazing [56.900964135228435]
既存の均質脱ハージング法は、強靭な方法でヘイズの不均一分布を扱うのに苦労する。
非均質なイメージデハージングのための,SCANet と呼ばれる新しい自己ペースト半曲的アテンションネットワークを提案する。
本手法は,アテンションジェネレータネットワークとシーン再構築ネットワークから構成される。
論文 参考訳(メタデータ) (2023-04-17T17:05:29Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - A-ESRGAN: Training Real-World Blind Super-Resolution with Attention
U-Net Discriminators [0.0]
ブラインド画像超解像(SR)は、未知の複雑な歪みに苦しむ低解像度画像の復元を目的とした、CVにおける長年の課題である。
本稿では,A-ESRGANについて述べる。A-ESRGAN,A-ESRGAN,A-ESRGAN,A-ESRGAN,A-ESRGAN,A-ESRGAN,A-ESRGAN。
論文 参考訳(メタデータ) (2021-12-19T02:50:23Z) - Learning Discriminative Representations for Multi-Label Image
Recognition [13.13795708478267]
マルチラベルタスクにおける識別的特徴を学習するための統合深層ネットワークを提案する。
ネットワーク全体を正規化することで、よく知られたResNet-101の適用性能が大幅に向上する。
論文 参考訳(メタデータ) (2021-07-23T12:10:46Z) - Multi-view Contrastive Coding of Remote Sensing Images at Pixel-level [5.64497799927668]
この制限を克服するために、ラベルのないマルチビュー設定に基づく画素単位のコントラスト的アプローチを提案する。
擬似媒介ResUnetは、シフトした正のペアから特徴を整列することを目的とした表現を学ぶために訓練される。
その結果,最先端のマルチビューコントラスト法よりも効率と精度が向上した。
論文 参考訳(メタデータ) (2021-05-18T13:28:46Z) - Dual Contrastive Loss and Attention for GANs [82.713118646294]
この損失により、識別器はより一般化され、識別可能な表現を学習し、生成をインセンティブ化することを示す。
最近の最先端モデルでは使われていないものの、画像生成にはまだ重要なモジュールとして注目が集まっている。
これらの救済策の強みを組み合わせることで、Fr'echet Inception Distance(FID)をいくつかのベンチマークデータセットで少なくとも17.5%改善します。
論文 参考訳(メタデータ) (2021-03-31T01:10:26Z) - Attention Model Enhanced Network for Classification of Breast Cancer
Image [54.83246945407568]
AMENはマルチブランチ方式で、画素ワイドアテンションモデルとサブモジュールの分類で定式化される。
微妙な詳細情報に焦点を合わせるため、サンプル画像は、前枝から生成された画素対応の注目マップによって強化される。
3つのベンチマークデータセットで行った実験は、様々なシナリオにおいて提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2020-10-07T08:44:21Z) - A U-Net Based Discriminator for Generative Adversarial Networks [86.67102929147592]
GAN(Generative Adversarial Network)のための代替U-Netベースの識別器アーキテクチャを提案する。
提案アーキテクチャにより,合成画像のグローバルコヒーレンスを維持しつつ,画素単位の詳細なフィードバックを生成元に提供することができる。
斬新な判別器は、標準分布と画像品質の指標の観点から、最先端の技術を向上する。
論文 参考訳(メタデータ) (2020-02-28T11:16:54Z) - Interpreting Galaxy Deblender GAN from the Discriminator's Perspective [50.12901802952574]
本研究は、ネットワークの主要なコンポーネントである識別器の動作に焦点を当てるが、しばしば見落とされがちな役割を担っている。
本手法は, 生成銀河画像と地中真理画像とを区別する際に, 識別器の注意領域を明確に明らかにする。
論文 参考訳(メタデータ) (2020-01-17T04:05:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。