論文の概要: Unified-EGformer: Exposure Guided Lightweight Transformer for Mixed-Exposure Image Enhancement
- arxiv url: http://arxiv.org/abs/2407.13170v1
- Date: Thu, 18 Jul 2024 05:18:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-19 16:51:58.117342
- Title: Unified-EGformer: Exposure Guided Lightweight Transformer for Mixed-Exposure Image Enhancement
- Title(参考訳): Unified-EGformer:混合露光画像強調のための露光誘導軽量変圧器
- Authors: Eashan Adhikarla, Kai Zhang, Rosaura G. VidalMata, Manjushree Aithal, Nikhil Ambha Madhusudhana, John Nicholson, Lichao Sun, Brian D. Davison,
- Abstract要約: We introduce the Unified-Exposure Guided Transformer (Unified-EGformer)
提案手法は,局所的な画素レベルの精細化と,色補正のためのグローバルな精細化ブロックと画像ワイド調整を備えた,高度なトランスフォーマーアーキテクチャを基盤として構築されている。
U-EGformerは、メモリフットプリント(ピークメモリ)がわずか$1134 MB (0.1 Millionパラメータ)で、推論時間は95 ms (9.61倍)で、監視や自律ナビゲーションなどのリアルタイムアプリケーションでは実行可能な選択肢である。
- 参考スコア(独自算出の注目度): 11.328110218032027
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Despite recent strides made by AI in image processing, the issue of mixed exposure, pivotal in many real-world scenarios like surveillance and photography, remains inadequately addressed. Traditional image enhancement techniques and current transformer models are limited with primary focus on either overexposure or underexposure. To bridge this gap, we introduce the Unified-Exposure Guided Transformer (Unified-EGformer). Our proposed solution is built upon advanced transformer architectures, equipped with local pixel-level refinement and global refinement blocks for color correction and image-wide adjustments. We employ a guided attention mechanism to precisely identify exposure-compromised regions, ensuring its adaptability across various real-world conditions. U-EGformer, with a lightweight design featuring a memory footprint (peak memory) of only $\sim$1134 MB (0.1 Million parameters) and an inference time of 95 ms (9.61x faster than the average), is a viable choice for real-time applications such as surveillance and autonomous navigation. Additionally, our model is highly generalizable, requiring minimal fine-tuning to handle multiple tasks and datasets with a single architecture.
- Abstract(参考訳): 画像処理におけるAIの最近の進歩にもかかわらず、複合露光の問題、監視や写真など多くの現実世界のシナリオにおいて重要な問題は、依然として不十分に対処されている。
従来の画像強調技術と現在のトランスフォーマーモデルは、過剰露光または過度の露光に重点を置いている。
このギャップを埋めるために、Unified-Exposure Guided Transformer (Unified-EGformer)を導入する。
提案手法は,局所的な画素レベルの精細化と,色補正のためのグローバルな精細化ブロックと画像ワイド調整を備えた,高度なトランスフォーマーアーキテクチャを基盤として構築されている。
実世界の様々な条件にまたがる適応性を確保するため,光合成領域を正確に識別するためのガイド付きアテンション機構を採用している。
U-EGformerは、メモリフットプリント(ピークメモリ)がわずか$\sim$1134 MB (0.1 Millionパラメータ)で、推論時間は95ms (9.61倍)で、監視や自律ナビゲーションといったリアルタイムアプリケーションには実行可能な選択肢である。
さらに、我々のモデルは高度に一般化可能であり、単一のアーキテクチャで複数のタスクやデータセットを処理するために最小限の微調整を必要とする。
関連論文リスト
- OminiControl: Minimal and Universal Control for Diffusion Transformer [68.3243031301164]
OminiControlは、イメージ条件をトレーニング済みのDiffusion Transformer(DiT)モデルに統合するフレームワークである。
コアとなるOminiControlはパラメータ再利用機構を活用しており、強力なバックボーンとしてイメージ条件をエンコードすることができる。
OminiControlは、主観駆動生成や空間的に整合した条件を含む、幅広いイメージコンディショニングタスクを統一的に処理する。
論文 参考訳(メタデータ) (2024-11-22T17:55:15Z) - WTCL-Dehaze: Rethinking Real-world Image Dehazing via Wavelet Transform and Contrastive Learning [17.129068060454255]
自律運転や監視といったアプリケーションには、単一イメージのデハジングが不可欠だ。
コントラスト損失と離散ウェーブレット変換を統合した半教師付きデハージングネットワークを提案する。
提案アルゴリズムは,最先端の単一画像復調法と比較して,優れた性能とロバスト性を実現している。
論文 参考訳(メタデータ) (2024-10-07T05:36:11Z) - Towards Effective User Attribution for Latent Diffusion Models via Watermark-Informed Blending [54.26862913139299]
我々は、ウォーターマークインフォームドブレンディング(TEAWIB)による潜伏拡散モデルに対する効果的なユーザ属性に向けた新しいフレームワークを提案する。
TEAWIBは、ユーザ固有の透かしを生成モデルにシームレスに統合する、ユニークな準備可能な構成アプローチを取り入れている。
TEAWIBの有効性を検証し、知覚的品質と帰属精度で最先端の性能を示す実験を行った。
論文 参考訳(メタデータ) (2024-09-17T07:52:09Z) - Deep 3D World Models for Multi-Image Super-Resolution Beyond Optical
Flow [27.31768206943397]
マルチイメージ・スーパーレゾリューション(MISR)は、複数の画像を組み合わせることで、低解像度(LR)取得の空間分解能を高めることができる。
提案したモデルであるEpiMISRは,光学的流れから離れ,取得過程のエピポーラ幾何学を明示的に用いている。
論文 参考訳(メタデータ) (2024-01-30T12:55:49Z) - A Non-Uniform Low-Light Image Enhancement Method with Multi-Scale
Attention Transformer and Luminance Consistency Loss [11.585269110131659]
低照度画像強調は、薄暗い環境で収集された画像の知覚を改善することを目的としている。
既存の方法では、識別された輝度情報を適応的に抽出することができず、露光過多や露光過多を容易に引き起こすことができる。
MSATrというマルチスケールアテンション変換器を提案し,光バランスの局所的・グローバル的特徴を十分に抽出し,視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-12-27T10:07:11Z) - Dimma: Semi-supervised Low Light Image Enhancement with Adaptive Dimming [0.728258471592763]
自然色を維持しながら低照度画像を強調することは、カメラ処理のバリエーションによって難しい問題である。
そこで我々はDimmaを提案する。Dimmaは、画像対の小さなセットを利用して、任意のカメラと整合する半教師付きアプローチである。
そこで我々は,照明の違いに基づいて,シーンの歪み色を生成する畳み込み混合密度ネットワークを導入することで実現した。
論文 参考訳(メタデータ) (2023-10-14T17:59:46Z) - Fearless Luminance Adaptation: A Macro-Micro-Hierarchical Transformer
for Exposure Correction [65.5397271106534]
単一のニューラルネットワークは、すべての露光問題に対処することが難しい。
特に、コンボリューションは、極端に過度に露出した領域における忠実な色や詳細を復元する能力を妨げる。
本稿では,マクロマイクロ階層変換器を提案する。マクロマイクロ階層変換器は,長距離依存を捉えるマクロアテンション,局所特徴を抽出するマイクロアテンション,粗大な修正のための階層構造を提案する。
論文 参考訳(メタデータ) (2023-09-02T09:07:36Z) - Low-Light Image Enhancement with Illumination-Aware Gamma Correction and
Complete Image Modelling Network [69.96295927854042]
低照度環境は通常、情報の少ない大規模な暗黒地帯に繋がる。
本稿では,ガンマ補正の有効性を深層ネットワークのモデリング能力と統合することを提案する。
指数関数演算は高い計算複雑性をもたらすので、Taylor Series を用いてガンマ補正を近似することを提案する。
論文 参考訳(メタデータ) (2023-08-16T08:46:51Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - Variational Approach for Intensity Domain Multi-exposure Image Fusion [11.678822620192435]
本稿では,従来の表示装置に直接表示可能な融合画像を生成する方法を提案する。
その野望は、照度が悪く、明るく照らされた地域で詳細を保存することである。
論文 参考訳(メタデータ) (2022-07-09T06:31:34Z) - Plug-In Inversion: Model-Agnostic Inversion for Vision with Data
Augmentations [61.95114821573875]
単純な拡張セットに依存し、過剰なハイパーパラメータチューニングを必要としないPlug-In Inversionを導入する。
ImageNetデータセットでトレーニングされたビジョントランスフォーマー(ViT)とマルチ層パーセプトロン(MLP)を反転させることにより,我々のアプローチの実用性を説明する。
論文 参考訳(メタデータ) (2022-01-31T02:12:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。