論文の概要: SAFNet: Selective Alignment Fusion Network for Efficient HDR Imaging
- arxiv url: http://arxiv.org/abs/2407.16308v1
- Date: Tue, 23 Jul 2024 09:02:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-24 17:56:16.922396
- Title: SAFNet: Selective Alignment Fusion Network for Efficient HDR Imaging
- Title(参考訳): SAFNet:効率的なHDRイメージングのための選択的アライメント融合ネットワーク
- Authors: Lingtong Kong, Bo Li, Yike Xiong, Hao Zhang, Hong Gu, Jinwei Chen,
- Abstract要約: HDRイメージングのためのSAFNet(Selective Alignment Fusion Network)を提案する。
モデルは価値ある領域を見つけることに集中し、容易に検出可能で意味のある動きを推定する。
公開および新たに開発された挑戦的データセットの実験では、提案されたSAFNetは、以前のSOTAコンペティターを定量的かつ質的に上回るだけでなく、桁違いに高速に動作している。
- 参考スコア(独自算出の注目度): 14.466061918935937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-exposure High Dynamic Range (HDR) imaging is a challenging task when facing truncated texture and complex motion. Existing deep learning-based methods have achieved great success by either following the alignment and fusion pipeline or utilizing attention mechanism. However, the large computation cost and inference delay hinder them from deploying on resource limited devices. In this paper, to achieve better efficiency, a novel Selective Alignment Fusion Network (SAFNet) for HDR imaging is proposed. After extracting pyramid features, it jointly refines valuable area masks and cross-exposure motion in selected regions with shared decoders, and then fuses high quality HDR image in an explicit way. This approach can focus the model on finding valuable regions while estimating their easily detectable and meaningful motion. For further detail enhancement, a lightweight refine module is introduced which enjoys privileges from previous optical flow, selection masks and initial prediction. Moreover, to facilitate learning on samples with large motion, a new window partition cropping method is presented during training. Experiments on public and newly developed challenging datasets show that proposed SAFNet not only exceeds previous SOTA competitors quantitatively and qualitatively, but also runs order of magnitude faster. Code and dataset is available at https://github.com/ltkong218/SAFNet.
- Abstract(参考訳): マルチ露光高ダイナミックレンジ(HDR)イメージングは,混在するテクスチャや複雑な動きに直面する場合の課題である。
既存のディープラーニングベースの手法は、アライメントと融合パイプラインに従うか、アテンションメカニズムを活用することで大きな成功を収めた。
しかし、大きな計算コストと推論遅延により、リソース制限されたデバイスへのデプロイが妨げられる。
本稿では,HDRイメージングのためのSAFNet(Selective Alignment Fusion Network)を提案する。
ピラミッドの特徴を抽出した後、選択された領域における貴重な領域マスクとクロス露光運動を共有デコーダで共同で洗練し、高品質なHDR画像を明示的に融合させる。
このアプローチは、容易かつ有意義な動きを推定しながら、価値ある領域を見つけることに集中することができる。
さらなる詳細強化のために、以前の光学フロー、選択マスク、初期予測からの特権を享受する軽量の精細モジュールが導入された。
また、大きな動きを持つサンプルの学習を容易にするため、トレーニング中に新しいウィンドウ分割収穫法が提示される。
公開および新たに開発された挑戦的データセットの実験では、提案されたSAFNetは、以前のSOTAコンペティターを定量的かつ質的に上回るだけでなく、桁違いに高速に動作している。
コードとデータセットはhttps://github.com/ltkong218/SAFNetで入手できる。
関連論文リスト
- RBSR: Efficient and Flexible Recurrent Network for Burst
Super-Resolution [57.98314517861539]
バースト超解像(BurstSR)は、高解像度(HR)画像を低解像度(LR)画像と雑音画像から再構成することを目的としている。
本稿では,効率よくフレキシブルなリカレントネットワークでフレーム単位のキューを融合させることを提案する。
論文 参考訳(メタデータ) (2023-06-30T12:14:13Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - SMAE: Few-shot Learning for HDR Deghosting with Saturation-Aware Masked
Autoencoders [97.64072440883392]
そこで本研究では,SSHDRと呼ばれる2段階の訓練を通した短距離HDRイメージングを実現するための,新しい半教師付きアプローチを提案する。
以前の方法とは異なり、コンテンツを直接回復し、ゴーストを同時に除去することは、最適に達成することが難しい。
実験により、SSHDRは異なるデータセットの内外における定量的かつ定性的に最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-04-14T03:42:51Z) - Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and
Transformer-Based Method [51.30748775681917]
低照度画像強調(LLIE)の課題を考察し,4K解像度と8K解像度の画像からなる大規模データベースを導入する。
我々は、系統的なベンチマーク研究を行い、現在のLLIEアルゴリズムと比較する。
第2のコントリビューションとして,変換器をベースとした低照度化手法であるLLFormerを紹介する。
論文 参考訳(メタデータ) (2022-12-22T09:05:07Z) - LWGNet: Learned Wirtinger Gradients for Fourier Ptychographic Phase
Retrieval [14.588976801396576]
本稿では,フォワードイメージングシステムの知識と深層データ駆動ネットワークを組み合わせたハイブリッドモデル駆動残差ネットワークを提案する。
従来のアンローリング技術とは異なり、LWGNetは従来のディープ・ラーニング・テクニックよりも少ない段数しか使用していない。
この低ビット深度・低コストセンサの性能向上は、FPM撮像装置のコストを大幅に下げる可能性がある。
論文 参考訳(メタデータ) (2022-08-08T17:22:54Z) - HerosNet: Hyperspectral Explicable Reconstruction and Optimal Sampling
Deep Network for Snapshot Compressive Imaging [41.91463343106411]
ハイパースペクトルイメージングは、特にリモートセンシング、農業、医学において、幅広い用途に欠かせない画像モダリティである。
低予算のスナップショット測定からハイパスペクトル画像(HSI)を再構築する、遅い、高価、またはかさばる既存のハイパースペクトルカメラにインスパイアされたことが注目されている。
スペクトルスナップショットセンシング(SCI)のための最近のディープ・アンフォールディング・ネットワーク(DUN)は、目覚ましい成功を収めている。
本稿では、ISTAアンフォールディングフレームワークの下で複数のフェーズを含むHerosNetと呼ばれる、SCIのためのハイパースペクトル拡張型再構成と最適サンプリングディープネットワークを提案する。
論文 参考訳(メタデータ) (2021-12-12T13:42:49Z) - Best-Buddy GANs for Highly Detailed Image Super-Resolution [71.13466303340192]
我々は,低分解能(LR)入力に基づいて高分解能(HR)画像を生成する単一画像超解像(SISR)問題を考える。
このラインに沿ったほとんどのメソッドは、SISRタスクに十分な柔軟性がない、事前定義されたシングルLRシングルHRマッピングに依存しています。
リッチディテールSISRのためのベストバディGAN(Beby-GAN)を提案する。
イミュータブルな1対1の制約を緩和することで、推定されたパッチを動的に最高の監視を求めることができる。
論文 参考訳(メタデータ) (2021-03-29T02:58:27Z) - Deep Burst Super-Resolution [165.90445859851448]
バースト超解像タスクのための新しいアーキテクチャを提案する。
我々のネットワークは複数のノイズRAW画像を入力として取り出し、出力として分解された超解像RGB画像を生成する。
実世界のデータのトレーニングと評価を可能にするため,BurstSRデータセットも導入する。
論文 参考訳(メタデータ) (2021-01-26T18:57:21Z) - The Mertens Unrolled Network (MU-Net): A High Dynamic Range Fusion
Neural Network for Through the Windshield Driver Recognition [1.758759574398869]
制約のない環境での顔認識は、光沢、照明の悪さ、ドライバーのポーズ、動きなど、多くのユニークな課題を生んでいる。
我々は、これらの課題を克服するために、カスタム車両イメージングシステムのハードウェアとソフトウェアをさらに発展させます。
我々は、スルーウインドシールド画像のHDR出力を微調整するために、Mertens Unrolled Network (MU-Net) と名付けた。
論文 参考訳(メタデータ) (2020-02-27T16:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。