論文の概要: Low-light Enhancement Method Based on Attention Map Net
- arxiv url: http://arxiv.org/abs/2208.09330v1
- Date: Fri, 19 Aug 2022 13:18:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-22 17:29:49.123847
- Title: Low-light Enhancement Method Based on Attention Map Net
- Title(参考訳): 注意マップネットに基づく低光度強調法
- Authors: Mengfei Wu, Xucheng Xue, Taiji Lan, Xinwei Xu
- Abstract要約: 低照度画像強調は、複雑な視覚タスクにおいて重要な前処理タスクである。
ターゲット検出、画像セグメンテーション、画像認識の結果はすべて、画像強調の影響によって直接影響を受ける。
我々は、U-Netを主構造とし、様々な注意機構をソリューションとして組み込んだBrightenNetと呼ばれる改良されたネットワークを提案する。
- 参考スコア(独自算出の注目度): 1.2158275183241178
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-light image enhancement is a crucial preprocessing task for some complex
vision tasks. Target detection, image segmentation, and image recognition
outcomes are all directly impacted by the impact of image enhancement. However,
the majority of the currently used image enhancement techniques do not produce
satisfactory outcomes, and these enhanced networks have relatively weak
robustness. We suggest an improved network called BrightenNet that uses U-Net
as its primary structure and incorporates a number of different attention
mechanisms as a solution to this issue. In a specific application, we employ
the network as the generator and LSGAN as the training framework to achieve
better enhancement results. We demonstrate the validity of the proposed network
BrightenNet in the experiments that follow in this paper. The results it
produced can both preserve image details and conform to human vision standards.
- Abstract(参考訳): 低照度画像強調は、複雑な視覚タスクにおいて重要な前処理タスクである。
ターゲット検出、画像分割、画像認識の結果はすべて、画像強調の影響によって直接影響を受ける。
しかし、現在使われている画像強調技術の大部分は良好な結果をもたらしておらず、これらの強化されたネットワークは比較的弱い。
我々は,U-Netを主構造とし,この問題の解決策として多くの異なる注意機構を組み込んだBrightenNetと呼ばれる改良されたネットワークを提案する。
特定のアプリケーションでは、ネットワークをジェネレータとして、LSGANをトレーニングフレームワークとして使い、より良い拡張結果を得る。
本稿では,提案するネットワーク BrightenNet の有効性について述べる。
生成した結果は、画像の詳細を保存でき、人間の視覚基準に準拠することができる。
関連論文リスト
- HAT: Hybrid Attention Transformer for Image Restoration [61.74223315807691]
トランスフォーマーに基づく手法は、画像の超解像や復調といった画像復元タスクにおいて顕著な性能を示している。
本稿では,新たなHAT(Hybrid Attention Transformer)を提案する。
我々のHATは,定量的かつ定性的に,最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-09-11T05:17:55Z) - SCRNet: a Retinex Structure-based Low-light Enhancement Model Guided by
Spatial Consistency [22.54951703413469]
本稿では,SCRNet(Spatial Consistency Retinex Network)と呼ばれる,新しい低照度画像強調モデルを提案する。
提案モデルでは, 空間的整合性の原理に着想を得て, チャネルレベル, セマンティックレベル, テクスチャレベルという3つのレベルの整合性を考慮した。
様々な低照度画像データセットに対する広範囲な評価は、提案したSCRNetが既存の最先端手法より優れていることを示している。
論文 参考訳(メタデータ) (2023-05-14T03:32:19Z) - Rethinking Performance Gains in Image Dehazing Networks [25.371802581339576]
我々は、コンパクトなデハージングネットワークを得るために、人気のあるU-Netに最小限の変更を加えている。
具体的には、U-Netの畳み込みブロックをゲーティング機構で残余ブロックに置き換える。
オーバーヘッドが大幅に削減されているため、gUNetは複数のイメージデハージングデータセットの最先端メソッドよりも優れている。
論文 参考訳(メタデータ) (2022-09-23T07:14:48Z) - DEANet: Decomposition Enhancement and Adjustment Network for Low-Light
Image Enhancement [8.328470427768695]
本稿では,低照度画像強調のためのRetinexに基づくDEANetを提案する。
画像の周波数情報とコンテンツ情報を3つのサブネットワークに結合する。
我々のモデルは、すべての低照度画像に対して優れたロバストな結果が得られる。
論文 参考訳(メタデータ) (2022-09-14T03:01:55Z) - Impact of Scaled Image on Robustness of Deep Neural Networks [0.0]
生画像のスケーリングはアウト・オブ・ディストリビューションデータを生成するため、ネットワークを騙すための敵攻撃の可能性がある。
本研究では,ImageNet Challengeデータセットのサブセットを複数でスケーリングすることで,Scaling-DistortionデータセットのImageNet-CSを提案する。
論文 参考訳(メタデータ) (2022-09-02T08:06:58Z) - Attention based Broadly Self-guided Network for Low light Image
Enhancement [0.0]
本稿では,Attention based Broadly Self-Guided Network (ABSGN) を用いて,リアルタイム低照度画像強調手法を提案する。
提案するネットワークは,多くの主流ベンチマークによって検証されている。
新たな実験結果から,提案したネットワークは,最先端の低照度画像強調ソリューションよりも優れていた。
論文 参考訳(メタデータ) (2021-12-12T13:11:29Z) - Learning Deep Context-Sensitive Decomposition for Low-Light Image
Enhancement [58.72667941107544]
典型的なフレームワークは、照明と反射を同時に推定することであるが、特徴空間にカプセル化されたシーンレベルの文脈情報を無視する。
本研究では,空間スケールにおけるシーンレベルのコンテキスト依存を生かした,コンテキスト依存型分解ネットワークアーキテクチャを提案する。
チャネル数を減らして軽量なCSDNet(LiteCSDNet)を開発する。
論文 参考訳(メタデータ) (2021-12-09T06:25:30Z) - Enhancing Photorealism Enhancement [83.88433283714461]
本稿では,畳み込みネットワークを用いた合成画像のリアリズム向上手法を提案する。
一般的に使用されるデータセットのシーンレイアウトの分布を分析し、重要な方法で異なることを見つけます。
近年のイメージ・ツー・イメージ翻訳法と比較して,安定性とリアリズムの大幅な向上が報告されている。
論文 参考訳(メタデータ) (2021-05-10T19:00:49Z) - AttendNets: Tiny Deep Image Recognition Neural Networks for the Edge via
Visual Attention Condensers [81.17461895644003]
我々は、オンデバイス画像認識に適した、低精度でコンパクトなディープニューラルネットワークであるAttendNetsを紹介する。
AttendNetsは、視覚的注意の凝縮に基づく深い自己注意アーキテクチャを持っている。
その結果、AttendNetsは、いくつかのディープニューラルネットワークと比較して、アーキテクチャと計算の複雑さが著しく低いことが示された。
論文 参考訳(メタデータ) (2020-09-30T01:53:17Z) - Flexible Example-based Image Enhancement with Task Adaptive Global
Feature Self-Guided Network [162.14579019053804]
我々は,1つの拡張写像の学習において,我々のモデルが現在の技術状況より優れていることを示す。
このモデルは、複数のマッピングを同時に学習する上で、さらに高いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-05-13T22:45:07Z) - A U-Net Based Discriminator for Generative Adversarial Networks [86.67102929147592]
GAN(Generative Adversarial Network)のための代替U-Netベースの識別器アーキテクチャを提案する。
提案アーキテクチャにより,合成画像のグローバルコヒーレンスを維持しつつ,画素単位の詳細なフィードバックを生成元に提供することができる。
斬新な判別器は、標準分布と画像品質の指標の観点から、最先端の技術を向上する。
論文 参考訳(メタデータ) (2020-02-28T11:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。