論文の概要: EfficienT-HDR: An Efficient Transformer-Based Framework via Multi-Exposure Fusion for HDR Reconstruction
- arxiv url: http://arxiv.org/abs/2509.19779v1
- Date: Wed, 24 Sep 2025 06:01:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.700657
- Title: EfficienT-HDR: An Efficient Transformer-Based Framework via Multi-Exposure Fusion for HDR Reconstruction
- Title(参考訳): EfficienT-HDR:HDR再構成のためのマルチ露光融合による効率的なトランスフォーマーベースフレームワーク
- Authors: Yu-Shen Huang, Tzu-Han Chen, Cheng-Yen Hsiao, Shaou-Gang Miaou,
- Abstract要約: 本研究では,HDR再構成のための軽量ビジョントランスアーキテクチャを提案する。
ゴーストを効果的に抑制するために、Intersection-Aware Adaptive Fusionモジュールを使用している。
実験の結果、ベースラインと比較して、メインバージョンはFLOPSを約67%削減した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Achieving high-quality High Dynamic Range (HDR) imaging on resource-constrained edge devices is a critical challenge in computer vision, as its performance directly impacts downstream tasks such as intelligent surveillance and autonomous driving. Multi-Exposure Fusion (MEF) is a mainstream technique to achieve this goal; however, existing methods generally face the dual bottlenecks of high computational costs and ghosting artifacts, hindering their widespread deployment. To this end, this study proposes a light-weight Vision Transformer architecture designed explicitly for HDR reconstruction to overcome these limitations. This study is based on the Context-Aware Vision Transformer and begins by converting input images to the YCbCr color space to separate luminance and chrominance information. It then employs an Intersection-Aware Adaptive Fusion (IAAF) module to suppress ghosting effectively. To further achieve a light-weight design, we introduce Inverted Residual Embedding (IRE), Dynamic Tanh (DyT), and propose Enhanced Multi-Scale Dilated Convolution (E-MSDC) to reduce computational complexity at multiple levels. Our study ultimately contributes two model versions: a main version for high visual quality and a light-weight version with advantages in computational efficiency, both of which achieve an excellent balance between performance and image quality. Experimental results demonstrate that, compared to the baseline, the main version reduces FLOPS by approximately 67% and increases inference speed by more than fivefold on CPU and 2.5 times on an edge device. These results confirm that our method provides an efficient and ghost-free HDR imaging solution for edge devices, demonstrating versatility and practicality across various dynamic scenarios.
- Abstract(参考訳): リソース制約されたエッジデバイス上での高品質なハイダイナミックレンジ(HDR)イメージングの実現は、知的監視や自律運転といった下流タスクに直接影響するため、コンピュータビジョンにおいて重要な課題である。
マルチエクスポージャー・フュージョン(MEF)は、この目標を達成するための主要な技術であるが、既存の手法は一般に高い計算コストとゴースト・アーティファクトの2つのボトルネックに直面しており、その展開を妨げている。
そこで本研究では,HDR再構成のための軽量ビジョントランスフォーマーアーキテクチャを提案する。
この研究は、Context-Aware Vision Transformerに基づいており、入力画像をYCbCr色空間に変換し、輝度と彩色情報を分離することで開始する。
その後、インターセクション・アウェア・アダプティブ・フュージョン(IAAF)モジュールを使用してゴーストを効果的に抑制する。
さらに軽量な設計を実現するため,Inverted Residual Embedding (IRE), Dynamic Tanh (DyT)を導入し,マルチスケールDilated Convolution (E-MSDC) の強化を提案し,複雑度を複数のレベルで低減した。
本研究は最終的に2つのモデルバージョンに寄与する: 高画質の主バージョンと、計算効率に優れた軽量バージョンであり、どちらも性能と画質のバランスが良好である。
実験の結果、ベースラインと比較して、メインバージョンはFLOPSを約67%削減し、CPUでは5倍以上、エッジデバイスでは2.5倍の速度で推論速度を向上した。
これらの結果から,本手法はエッジデバイスに対して効率的かつゴーストフリーなHDRイメージングソリューションを提供し,様々な動的シナリオにまたがる汎用性と実用性を示した。
関連論文リスト
- Learned Off-aperture Encoding for Wide Field-of-view RGBD Imaging [31.931929519577402]
この研究は、DOEオフアパーチャを配置することで、自由度を空間的にアンミックスできる追加の設計選択を探索する。
実験結果から,PSNRの5dB以上のFoVにおいて,単純な薄膜レンズと組み合わせた場合,オフ開口DOEにより撮像品質が向上することが明らかとなった。
論文 参考訳(メタデータ) (2025-07-30T09:49:47Z) - Autoregressive High-Order Finite Difference Modulo Imaging: High-Dynamic Range for Computer Vision Applications [3.4956406636452626]
高ダイナミックレンジ(グレッシブ)イメージングは、自律運転などのコンピュータビジョンタスクに不可欠な、シーン内のすべての光のトーンを捉えるのに不可欠である。
標準の商用撮像システムは、井戸深度と量子化精度の限界に直面し、HDR能力を妨げている。
我々は、飽和時に信号のリセットを行うモジュロアナログ-デジタルアプローチを開発し、隣接する画素強度を通してピクセルリセットを推定する。
論文 参考訳(メタデータ) (2025-04-05T16:41:15Z) - PASTA: Towards Flexible and Efficient HDR Imaging Via Progressively Aggregated Spatio-Temporal Alignment [91.38256332633544]
PASTAは、HDRデゴスティングのためのプログレッシブアグリゲーションアグリゲーション・時空間アライメントフレームワークである。
提案手法は,特徴分散中の階層的表現を活用することにより,有効性と効率性を実現する。
実験結果から,従来のSOTA法よりもPASTAの方が視覚的品質と性能の両方で優れていることが示された。
論文 参考訳(メタデータ) (2024-03-15T15:05:29Z) - HDRTransDC: High Dynamic Range Image Reconstruction with Transformer Deformation Convolution [21.870772317331447]
高ダイナミックレンジ(CAM)画像は、多露光低ダイナミックレンジ(LDR)画像を融合させることで、現実的な細部を持つ人工物のないHDR画像を生成することを目的としている。
融合歪みの除去を目的としたDWFBを提案する。
論文 参考訳(メタデータ) (2024-03-11T15:48:17Z) - Hybrid-Supervised Dual-Search: Leveraging Automatic Learning for
Loss-free Multi-Exposure Image Fusion [60.221404321514086]
マルチ露光画像融合(MEF)は、様々な露光レベルを表すデジタルイメージングの限界に対処するための重要な解決策である。
本稿では、ネットワーク構造と損失関数の両方を自動設計するための二段階最適化探索方式であるHSDS-MEFと呼ばれるMEFのためのハイブリッドスーパービジョンデュアルサーチ手法を提案する。
論文 参考訳(メタデータ) (2023-09-03T08:07:26Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - Scale-aware Two-stage High Dynamic Range Imaging [13.587403084724015]
本稿では,高品質なゴーストフリー画像合成を実現するため,スケールアウェアな2段階ハイレンジイメージングフレームワーク(ST)を提案する。
具体的には,機能アライメントと2段階融合からなるフレームワークについて述べる。
特徴融合の第1段階では,ゴーストアーティファクトの少ない予備的な結果が得られる。
第2段階では,提案したSTの有効性を,速度と品質の観点から検証する。
論文 参考訳(メタデータ) (2023-03-12T05:17:24Z) - Universal and Flexible Optical Aberration Correction Using Deep-Prior
Based Deconvolution [51.274657266928315]
そこで本研究では,収差画像とpsfマップを入力とし,レンズ固有深層プリエントを組み込んだ潜在高品質版を生成する,psf対応プラグイン・アンド・プレイ深層ネットワークを提案する。
具体的には、多彩なレンズの集合からベースモデルを事前訓練し、パラメータを迅速に精製して特定のレンズに適応させる。
論文 参考訳(メタデータ) (2021-04-07T12:00:38Z) - Single-Image HDR Reconstruction by Learning to Reverse the Camera
Pipeline [100.5353614588565]
本稿では,LDR画像形成パイプラインの領域知識をモデルに組み込むことを提案する。
我々は,HDRto-LDR画像形成パイプラインを(1)ダイナミックレンジクリッピング,(2)カメラ応答関数からの非線形マッピング,(3)量子化としてモデル化する。
提案手法は,最先端の単一画像HDR再構成アルゴリズムに対して良好に動作することを示す。
論文 参考訳(メタデータ) (2020-04-02T17:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。