論文の概要: RAWMamba: Unified sRGB-to-RAW De-rendering With State Space Model
- arxiv url: http://arxiv.org/abs/2411.11717v1
- Date: Mon, 18 Nov 2024 16:45:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:32:48.799382
- Title: RAWMamba: Unified sRGB-to-RAW De-rendering With State Space Model
- Title(参考訳): RAWMamba:SRGB-to-RAWをステートスペースモデルでデレンダリング
- Authors: Hongjun Chen, Wencheng Han, Huan Zheng, Jianbing Shen,
- Abstract要約: 本稿では, sRGB-to-RAWデレンダリングのための統一フレームワークであるRAWMambaを提案する。
RAWMambaのコアはUnified Metadata Embedding (UME)モジュールである。
Local Tone-Aware Mambaモジュールは、メタデータの効果的なグローバルな伝搬を可能にするために、長距離依存関係をキャプチャする。
- 参考スコア(独自算出の注目度): 52.250939617273744
- License:
- Abstract: Recent advancements in sRGB-to-RAW de-rendering have increasingly emphasized metadata-driven approaches to reconstruct RAW data from sRGB images, supplemented by partial RAW information. In image-based de-rendering, metadata is commonly obtained through sampling, whereas in video tasks, it is typically derived from the initial frame. The distinct metadata requirements necessitate specialized network architectures, leading to architectural incompatibilities that increase deployment complexity. In this paper, we propose RAWMamba, a Mamba-based unified framework developed for sRGB-to-RAW de-rendering across both image and video domains. The core of RAWMamba is the Unified Metadata Embedding (UME) module, which harmonizes diverse metadata types into a unified representation. In detail, a multi-perspective affinity modeling method is proposed to promote the extraction of reference information. In addition, we introduce the Local Tone-Aware Mamba (LTA-Mamba) module, which captures long-range dependencies to enable effective global propagation of metadata. Experimental results demonstrate that the proposed RAWMamba achieves state-of-the-art performance, yielding high-quality RAW data reconstruction.
- Abstract(参考訳): 近年のsRGB-to-RAWデレンダリングの進歩は、部分RAW情報で補足されたsRGB画像からRAWデータを再構成するメタデータ駆動型アプローチを強調している。
画像ベースのデレンダリングでは、メタデータはサンプリングによって一般的に取得されるが、ビデオタスクでは、通常は初期フレームから派生する。
異なるメタデータ要件は、特別なネットワークアーキテクチャを必要とするため、デプロイメントの複雑さを増大させるようなアーキテクチャ上の非互換性につながります。
本稿では,イメージドメインとビデオドメインの両方にわたって,sRGB-to-RAWデレンダリング用に開発されたMambaベースの統一フレームワークであるRAWMambaを提案する。
RAWMambaのコアはUnified Metadata Embedding (UME)モジュールである。
本稿では,参照情報の抽出を促進するために,多視点親和性モデリング手法を提案する。
さらに,メタデータの効率的なグローバルな伝搬を実現するために,長距離依存をキャプチャするローカルトーン・アウェア・マンバ(LTA-Mamba)モジュールを導入する。
実験の結果,提案したRAWMambaは最先端の性能を実現し,高品質なRAWデータ再構成を実現することがわかった。
関連論文リスト
- A Learnable Color Correction Matrix for RAW Reconstruction [19.394856071610604]
複雑な逆画像信号処理装置(ISP)を近似する学習可能な色補正行列(CCM)を導入する。
実験結果から,本手法で生成したRAW(simRAW)画像は,より複雑な逆ISP法で生成した画像と同等の性能向上が得られた。
論文 参考訳(メタデータ) (2024-09-04T07:46:42Z) - Beyond Learned Metadata-based Raw Image Reconstruction [86.1667769209103]
生画像は、線形性や微細な量子化レベルなど、sRGB画像に対して明確な利点がある。
ストレージの要求が大きいため、一般ユーザからは広く採用されていない。
本稿では,メタデータとして,潜在空間におけるコンパクトな表現を学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-21T06:59:07Z) - Self-Supervised Reversed Image Signal Processing via Reference-Guided
Dynamic Parameter Selection [1.1602089225841632]
メタデータとペア画像を必要としない自己教師付き逆ISP方式を提案する。
提案手法は,RGB画像を参照RAW画像と同じセンサで同一環境で撮影されたRAWライクな画像に変換する。
提案手法は,他の最先端教師付き手法に匹敵する精度で,様々な逆ISPを学習可能であることを示す。
論文 参考訳(メタデータ) (2023-03-24T11:12:05Z) - Raw Image Reconstruction with Learned Compact Metadata [61.62454853089346]
本稿では,メタデータとしての潜在空間におけるコンパクトな表現をエンドツーエンドで学習するための新しいフレームワークを提案する。
提案する生画像圧縮方式は,グローバルな視点から重要な画像領域に適応的により多くのビットを割り当てることができることを示す。
論文 参考訳(メタデータ) (2023-02-25T05:29:45Z) - Towards Low Light Enhancement with RAW Images [101.35754364753409]
我々は、低光強度でRAW画像を使用することの優位性について、最初のベンチマークを行う。
本研究では,RAW画像の特性を計測可能な因子に分解するFEM(Facterized Enhancement Model)を新たに開発した。
実アプリケーションにおけるRAW画像の利点と利用不可のトレードオフを生かしたREENet(RAW-guiding Exposure Enhancement Network)を開発した。
論文 参考訳(メタデータ) (2021-12-28T07:27:51Z) - Deep Burst Super-Resolution [165.90445859851448]
バースト超解像タスクのための新しいアーキテクチャを提案する。
我々のネットワークは複数のノイズRAW画像を入力として取り出し、出力として分解された超解像RGB画像を生成する。
実世界のデータのトレーニングと評価を可能にするため,BurstSRデータセットも導入する。
論文 参考訳(メタデータ) (2021-01-26T18:57:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。