論文の概要: LightFuse: Lightweight CNN based Dual-exposure Fusion
- arxiv url: http://arxiv.org/abs/2107.02299v1
- Date: Mon, 5 Jul 2021 22:10:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-07 13:41:01.171652
- Title: LightFuse: Lightweight CNN based Dual-exposure Fusion
- Title(参考訳): LightFuse:軽量CNNベースのデュアル露光融合
- Authors: Ziyi Liu, Jie Yang, Orly Yadid-Pecht
- Abstract要約: 極端二重露光画像融合のための軽量CNNベースのアルゴリズムであるLightFuseを提案する。
GlobalNet (G) と DetailNet (D) の2つのサブネットワークが利用されている。
我々のPSNRスコアは、他の最先端のアプローチを1.2倍から1.6倍上回る。
- 参考スコア(独自算出の注目度): 7.462670458670122
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep convolutional neural networks (DCNN) aided high dynamic range (HDR)
imaging recently received a lot of attention. The quality of DCNN generated HDR
images have overperformed the traditional counterparts. However, DCNN is prone
to be computationally intensive and power-hungry. To address the challenge, we
propose LightFuse, a light-weight CNN-based algorithm for extreme dual-exposure
image fusion, which can be implemented on various embedded computing platforms
with limited power and hardware resources. Two sub-networks are utilized: a
GlobalNet (G) and a DetailNet (D). The goal of G is to learn the global
illumination information on the spatial dimension, whereas D aims to enhance
local details on the channel dimension. Both G and D are based solely on
depthwise convolution (D Conv) and pointwise convolution (P Conv) to reduce
required parameters and computations. Experimental results display that the
proposed technique could generate HDR images with plausible details in
extremely exposed regions. Our PSNR score exceeds the other state-of-the-art
approaches by 1.2 to 1.6 times and achieves 1.4 to 20 times FLOP and parameter
reduction compared with others.
- Abstract(参考訳): 深部畳み込みニューラルネットワーク(DCNN)は近年,高ダイナミックレンジ(HDR)イメージングに多くの注目を集めている。
DCNN生成したHDR画像の品質は、従来の画像よりも優れています。
しかし、DCNNは計算集約的で電力消費が高い傾向にある。
この問題に対処するため,我々は,消費電力とハードウェアリソースの制限のある様々な組込みコンピューティングプラットフォームに実装可能な,極端にデュアルエクスプロイアな画像融合のための軽量cnnベースのアルゴリズムであるlightfuseを提案する。
GlobalNet (G) と DetailNet (D) の2つのサブネットワークが利用されている。
g の目標は空間次元に関する大域的な照明情報を学ぶことであるが、d はチャネル次元の局所的な詳細を強化することを目的としている。
g と d はいずれも、必要パラメータと計算量を減らすために、深さ方向畳み込み (d conv) と点方向畳み込み (p conv) のみに基づいている。
実験の結果, 極端に露出した領域において, 精細なhdr画像を生成することができた。
我々のPSNRスコアは他の最先端の手法を1.2倍から1.6倍に上回り、FLOPの1.4倍から20倍のパラメータ削減を実現した。
関連論文リスト
- Spatial-frequency Dual-Domain Feature Fusion Network for Low-Light Remote Sensing Image Enhancement [49.15531684596958]
低照度リモートセンシング画像強調のためのDFFN(Dual-Domain Feature Fusion Network)を提案する。
第1フェーズは振幅情報を学習して画像輝度を復元し、第2フェーズは位相情報を学習して詳細を洗練させる。
我々は、現在の暗光リモートセンシング画像強調におけるデータセットの欠如に対応するために、2つの暗光リモートセンシングデータセットを構築した。
論文 参考訳(メタデータ) (2024-04-26T13:21:31Z) - FastHDRNet: A new efficient method for SDR-to-HDR Translation [5.224011800476952]
我々は「FastNet」と呼ばれるSDRからHDRへの変換のためのニューラルネットワークを提案する。
このアーキテクチャは、グローバル統計とローカル情報を超高効率で利用する軽量ネットワークとして設計されている。
論文 参考訳(メタデータ) (2024-04-06T03:25:24Z) - The R2D2 deep neural network series paradigm for fast precision imaging in radio astronomy [1.7249361224827533]
最近の画像再構成技術は、CLEANの能力をはるかに超えて、画像の精度が著しく向上している。
高ダイナミックレンジイメージングのためのResidual-to-Residual DNNシリーズと呼ばれる新しいディープラーニング手法を導入する。
高精度を実現するためのR2D2の能力は、超大型アレイ(VLA)を用いた様々な画像観測環境においてシミュレーションで実証されている。
論文 参考訳(メタデータ) (2024-03-08T16:57:54Z) - Semantic Segmentation in Satellite Hyperspectral Imagery by Deep Learning [54.094272065609815]
本稿では1D-Justo-LiuNetという軽量な1D-CNNモデルを提案する。
1D-Justo-LiuNetは、全てのテストモデルの中で最小のモデルサイズ (4,563 パラメータ) を持つ最大精度 (0.93) を達成する。
論文 参考訳(メタデータ) (2023-10-24T21:57:59Z) - DMDC: Dynamic-mask-based dual camera design for snapshot Hyperspectral
Imaging [3.3946853660795884]
本稿では,RGBカメラとCASSIシステムを組み合わせた動的マスク方式のデュアルカメラシステムを提案する。
まず、RGB画像に基づいてシーンの空間的特徴分布を学習し、SLMに各シーンをエンコードするよう指示し、最後にRGB画像とCASSI画像の両方をネットワークに送信して再構成を行う。
さらに,2つのネットワークからなるDMDC-net,マスクの動的調整のための小型CNNベースの動的マスクネットワーク,RGBおよびCASSI測定を用いた再構成のためのマルチモーダル再構成ネットワークを設計した。
論文 参考訳(メタデータ) (2023-08-03T05:10:58Z) - VPFNet: Improving 3D Object Detection with Virtual Point based LiDAR and
Stereo Data Fusion [62.24001258298076]
VPFNetは、ポイントクラウドとイメージデータを仮想のポイントで巧みに調整し集約する新しいアーキテクチャである。
当社のVPFNetは,KITTIテストセットで83.21%の中等度3D AP,91.86%中等度BEV APを達成し,2021年5月21日以来の1位となった。
論文 参考訳(メタデータ) (2021-11-29T08:51:20Z) - Dual-view Snapshot Compressive Imaging via Optical Flow Aided Recurrent
Neural Network [14.796204921975733]
デュアルビュースナップショット圧縮イメージング(SCI)は、2つの視野(FoV)からのビデオを1つのスナップショットでキャプチャすることを目的としている。
既存のモデルベースの復号アルゴリズムでは個々のシーンを再構築することは困難である。
本稿では,2重ビデオSCIシステムのための光フロー支援型リカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-09-11T14:24:44Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - Spatial Dependency Networks: Neural Layers for Improved Generative Image
Modeling [79.15521784128102]
画像生成装置(デコーダ)を構築するための新しいニューラルネットワークを導入し、可変オートエンコーダ(VAE)に適用する。
空間依存ネットワーク(sdns)では、ディープニューラルネットの各レベルにおける特徴マップを空間的にコヒーレントな方法で計算する。
空間依存層による階層型vaeのデコーダの強化は密度推定を大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-03-16T07:01:08Z) - UPHDR-GAN: Generative Adversarial Network for High Dynamic Range Imaging
with Unpaired Data [42.283022888414656]
本稿では,マルチ露光入力を効果的に融合し,不用意なデータセットを用いて高品質な高ダイナミックレンジ(リバーサ)画像を生成する手法を提案する。
ディープラーニングに基づくHDR画像生成手法は、ペア化されたデータセットに大きく依存する。
Generative Adrial Networks (GAN) は、ペアの例がない状態で、ソースドメインXからターゲットドメインYへの画像変換の可能性を示した。
論文 参考訳(メタデータ) (2021-02-03T03:09:14Z) - Low Light Image Enhancement via Global and Local Context Modeling [164.85287246243956]
低照度画像強調のためのコンテキスト認識ディープネットワークを導入。
まず、全空間領域上の補完的な手がかりを見つけるために空間相関をモデル化するグローバルコンテキストモジュールを特徴とする。
第二に、比較的大きな受容フィールドで局所的なコンテキストをキャプチャする密な残留ブロックを導入する。
論文 参考訳(メタデータ) (2021-01-04T09:40:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。