論文の概要: MEFLUT: Unsupervised 1D Lookup Tables for Multi-exposure Image Fusion
- arxiv url: http://arxiv.org/abs/2309.11847v1
- Date: Thu, 21 Sep 2023 07:43:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 16:31:53.589841
- Title: MEFLUT: Unsupervised 1D Lookup Tables for Multi-exposure Image Fusion
- Title(参考訳): MEFLUT:マルチ露光画像融合のための教師なし1Dルックアップテーブル
- Authors: Ting Jiang, Chuan Wang, Xinpeng Li, Ru Li, Haoqiang Fan, Shuaicheng
Liu
- Abstract要約: 高品質マルチ露光画像融合(MEF)のための新しいアプローチを提案する。
露光の融合重量を1次元ルックアップテーブル(LUT)に符号化できることを示す。
露光ごとに1D LUTを学習し、異なる露光から得られるすべてのピクセルが、高品質で効率的な融合のために独立してその露光の1D LUTをクエリできる。
- 参考スコア(独自算出の注目度): 55.0571315141482
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce a new approach for high-quality multi-exposure
image fusion (MEF). We show that the fusion weights of an exposure can be
encoded into a 1D lookup table (LUT), which takes pixel intensity value as
input and produces fusion weight as output. We learn one 1D LUT for each
exposure, then all the pixels from different exposures can query 1D LUT of that
exposure independently for high-quality and efficient fusion. Specifically, to
learn these 1D LUTs, we involve attention mechanism in various dimensions
including frame, channel and spatial ones into the MEF task so as to bring us
significant quality improvement over the state-of-the-art (SOTA). In addition,
we collect a new MEF dataset consisting of 960 samples, 155 of which are
manually tuned by professionals as ground-truth for evaluation. Our network is
trained by this dataset in an unsupervised manner. Extensive experiments are
conducted to demonstrate the effectiveness of all the newly proposed
components, and results show that our approach outperforms the SOTA in our and
another representative dataset SICE, both qualitatively and quantitatively.
Moreover, our 1D LUT approach takes less than 4ms to run a 4K image on a PC
GPU. Given its high quality, efficiency and robustness, our method has been
shipped into millions of Android mobiles across multiple brands world-wide.
Code is available at: https://github.com/Hedlen/MEFLUT.
- Abstract(参考訳): 本稿では,高品質なマルチ露光画像融合(MEF)のための新しいアプローチを提案する。
本研究では,露出の融合重みを1次元ルックアップテーブル(LUT)に符号化し,画素強度値を入力とし,融合重みを出力として生成することを示す。
露光ごとに1D LUTを学習し、異なる露光から得られるすべてのピクセルが、高品質で効率的な融合のために独立してその露光の1D LUTをクエリできる。
具体的には,これら1次元lutsを学習するために,フレーム,チャネル,空間といった様々な次元の注意機構をmefタスクに組み込んで,最先端技術(sota)よりも優れた品質向上を実現する。
さらに、960個のサンプルからなる新しいMEFデータセットを収集し、そのうち155個のサンプルを専門家が手動で調整して評価する。
我々のネットワークは、教師なしの方法でこのデータセットによって訓練されている。
提案手法は,提案するコンポーネントすべての有効性を実証するために広範な実験を行い,本手法が定性的および定量的に,我々の代表データセットsiceのsotaを上回っていることを示した。
さらに、我々の1D LUTアプローチでは、PCGPU上で4Kイメージを実行するのに4ms未満です。
高品質、効率、堅牢性から、当社の方法は世界中で何百万ものAndroidモバイルに出荷されています。
コードは、https://github.com/Hedlen/MEFLUT.comで入手できる。
関連論文リスト
- MMEarth: Exploring Multi-Modal Pretext Tasks For Geospatial Representation Learning [9.540487697801531]
MMEarthは、グローバルスケールでの多様なマルチモーダル事前トレーニングデータセットである。
光衛星画像の汎用表現を学習するために,MP-MAE(Multi-Pretext Masked Autoencoder)アプローチを提案する。
論文 参考訳(メタデータ) (2024-05-04T23:16:48Z) - PF-LRM: Pose-Free Large Reconstruction Model for Joint Pose and Shape
Prediction [77.89935657608926]
画像から3Dオブジェクトを再構成するためのPF-LRM(Pose-Free Large Restruction Model)を提案する。
PF-LRMは1つのA100 GPU上で1.3秒で相対カメラのポーズを同時に推定する。
論文 参考訳(メタデータ) (2023-11-20T18:57:55Z) - MLF-DET: Multi-Level Fusion for Cross-Modal 3D Object Detection [54.52102265418295]
MLF-DETと呼ばれる,高性能なクロスモーダル3DオブジェクトDrectionのための,新規かつ効果的なマルチレベルフュージョンネットワークを提案する。
特徴レベルの融合では、マルチスケールのボクセル特徴と画像の特徴を密集したマルチスケールのボクセル画像融合(MVI)モジュールを提示する。
本稿では,画像のセマンティクスを利用して検出候補の信頼度を補正するFCR(Feature-cued Confidence Rectification)モジュールを提案する。
論文 参考訳(メタデータ) (2023-07-18T11:26:02Z) - BEVFusion: Multi-Task Multi-Sensor Fusion with Unified Bird's-Eye View Representation [105.96557764248846]
本稿では,汎用マルチタスクマルチセンサ融合フレームワークであるBEVFusionを紹介する。
共有鳥眼ビュー表示空間におけるマルチモーダル特徴を統一する。
3Dオブジェクト検出では1.3%高いmAPとNDS、BEVマップのセグメンテーションでは13.6%高いmIoU、コストは1.9倍である。
論文 参考訳(メタデータ) (2022-05-26T17:59:35Z) - Real-time Image Enhancer via Learnable Spatial-aware 3D Lookup Tables [12.4260963890153]
学習可能な空間認識型3次元ルックアップテーブル(LUT)による新しいリアルタイム画像強調器を提案する。
空間認識型3D LUTを学習し、上記の重みに応じてエンドツーエンドに融合する。
我々のモデルは、主観的かつ客観的に、公開データセット上でSOTA画像強調法より優れている。
論文 参考訳(メタデータ) (2021-08-19T14:04:59Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - Large-Scale Unsupervised Object Discovery [80.60458324771571]
教師なしオブジェクトディスカバリ(UOD)は、パフォーマンスを損なう近似なしでは、大規模なデータセットにスケールアップしない。
本稿では,固有値問題やリンク解析に利用できる分散手法の武器として,ランク付け問題としてのUODの新たな定式化を提案する。
論文 参考訳(メタデータ) (2021-06-12T00:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。