論文の概要: Modeling Dual-Exposure Quad-Bayer Patterns for Joint Denoising and Deblurring
- arxiv url: http://arxiv.org/abs/2412.07256v1
- Date: Tue, 10 Dec 2024 07:35:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:36:02.343944
- Title: Modeling Dual-Exposure Quad-Bayer Patterns for Joint Denoising and Deblurring
- Title(参考訳): 二重露光クアドバイヤーパターンのモデリングによる関節脱臭・脱臭
- Authors: Yuzhi Zhao, Lai-Man Po, Xin Ye, Yongzhe Xu, Qiong Yan,
- Abstract要約: 単一イメージのソリューションは、ノイズ低減と動きのぼかしの間に固有のトレードオフに直面している。
本稿では,新しい2重露光型Qad-Bayerパターンセンサを利用した物理モデルに基づく画像復元手法を提案する。
QRNetと呼ばれる階層型畳み込みニューラルネットワークを設計し、高品質なRGB画像を復元する。
- 参考スコア(独自算出の注目度): 22.82877719326985
- License:
- Abstract: Image degradation caused by noise and blur remains a persistent challenge in imaging systems, stemming from limitations in both hardware and methodology. Single-image solutions face an inherent tradeoff between noise reduction and motion blur. While short exposures can capture clear motion, they suffer from noise amplification. Long exposures reduce noise but introduce blur. Learning-based single-image enhancers tend to be over-smooth due to the limited information. Multi-image solutions using burst mode avoid this tradeoff by capturing more spatial-temporal information but often struggle with misalignment from camera/scene motion. To address these limitations, we propose a physical-model-based image restoration approach leveraging a novel dual-exposure Quad-Bayer pattern sensor. By capturing pairs of short and long exposures at the same starting point but with varying durations, this method integrates complementary noise-blur information within a single image. We further introduce a Quad-Bayer synthesis method (B2QB) to simulate sensor data from Bayer patterns to facilitate training. Based on this dual-exposure sensor model, we design a hierarchical convolutional neural network called QRNet to recover high-quality RGB images. The network incorporates input enhancement blocks and multi-level feature extraction to improve restoration quality. Experiments demonstrate superior performance over state-of-the-art deblurring and denoising methods on both synthetic and real-world datasets. The code, model, and datasets are publicly available at https://github.com/zhaoyuzhi/QRNet.
- Abstract(参考訳): ノイズとぼかしによる画像の劣化は、ハードウェアと方法論の両方の限界から生じる、イメージングシステムにおける永続的な課題である。
単一イメージのソリューションは、ノイズ低減と動きのぼかしの間に固有のトレードオフに直面している。
短い露光は明確な動きを捉えることができるが、ノイズ増幅に悩まされる。
長い露光は騒音を減少させるが、ぼやけを引き起こす。
学習ベースのシングルイメージエンハンサーは、限られた情報のため、過度にスムースになる傾向がある。
バーストモードを用いたマルチイメージソリューションは、より時空間的な情報をキャプチャすることで、このトレードオフを避けるが、しばしばカメラ/シーンの動きのミスアライメントに悩まされる。
これらの制約に対処するために,新しい二重露光型クアドバイヤーパターンセンサを利用した物理モデルに基づく画像復元手法を提案する。
短い露光と長い露光のペアを同一の開始点でキャプチャするが、時間的に異なるため、1つの画像に補完的なノイズ・ブルー情報を統合する。
さらに、ベイアパターンからのセンサデータをシミュレートし、トレーニングを容易にするQuad-Bayer合成法(B2QB)を導入する。
この二重露光センサモデルに基づいて、QRNetと呼ばれる階層型畳み込みニューラルネットワークを設計し、高品質なRGB画像を復元する。
ネットワークは、入力拡張ブロックと多レベル特徴抽出を組み込んで復元品質を向上させる。
実験は、合成データセットと実世界のデータセットの両方において、最先端のデブロアリングおよびデノナイジング手法よりも優れた性能を示す。
コード、モデル、データセットはhttps://github.com/zhaoyuzhi/QRNet.comで公開されている。
関連論文リスト
- bit2bit: 1-bit quanta video reconstruction via self-supervised photon prediction [57.199618102578576]
疎二分量時間画像データから高画質の画像スタックを元の解像度で再構成する新しい方法であるbit2bitを提案する。
Poisson denoisingの最近の研究に触発されて、スパースバイナリ光子データから高密度な画像列を生成するアルゴリズムを開発した。
本研究では,様々な課題の画像条件下でのSPADの高速映像を多種多種に含む新しいデータセットを提案する。
論文 参考訳(メタデータ) (2024-10-30T17:30:35Z) - Exposure Bracketing is All You Need for Unifying Image Restoration and Enhancement Tasks [50.822601495422916]
本稿では,露光ブラケット写真を利用して画像復元と拡張作業を統合することを提案する。
実世界のペアの収集が困難であるため,まず合成ペアデータを用いてモデルを事前学習する手法を提案する。
特に,時間変調リカレントネットワーク(TMRNet)と自己教師あり適応手法を提案する。
論文 参考訳(メタデータ) (2024-01-01T14:14:35Z) - Towards High-quality HDR Deghosting with Conditional Diffusion Models [88.83729417524823]
高ダイナミックレンジ(LDR)画像は、既存のディープニューラルネットワーク(DNN)技術により、複数の低ダイナミックレンジ(LDR)画像から復元することができる。
DNNは、LDR画像が飽和度と大きな動きを持つ場合、ゴーストアーティファクトを生成する。
拡散モデルの条件としてLDR特徴を利用する画像生成としてHDRデゴースト問題を定式化する。
論文 参考訳(メタデータ) (2023-11-02T01:53:55Z) - Joint Demosaicing and Denoising with Double Deep Image Priors [5.3686304202729]
現代のデジタルカメラの処理パイプラインにおいて、RAW画像の復号化と復号化は重要なステップである。
最近のディープ・ニューラル・ネットワークベースのアプローチは、このような課題を緩和するために、共同の解答と妄想の有効性を示している。
本稿では,JDD-DoubleDIPと呼ばれる,RAW画像を直接操作し,トレーニングデータを必要とせずに,新たな共同復調・復調手法を提案する。
論文 参考訳(メタデータ) (2023-09-18T01:53:10Z) - Make Explicit Calibration Implicit: Calibrate Denoiser Instead of the
Noise Model [83.9497193551511]
デジタルゲインやカメラセンサーによらず有効であるLED(Lighting Every Darkness)を導入する。
LEDは明示的なノイズモデルのキャリブレーションの必要性を排除し、高速な展開と最小限のデータを必要とする暗黙の微調整プロセスを活用する。
LEDは、センサー工学の利点を生かしながら、ディープラーニングの進歩にもっと注力することを可能にする。
論文 参考訳(メタデータ) (2023-08-07T10:09:11Z) - Inheriting Bayer's Legacy-Joint Remosaicing and Denoising for Quad Bayer
Image Sensor [10.36002828484577]
ピクセルビンニングをベースとしたQuadセンサーは、低照度撮像におけるコンパクトカメラのハードウェア制限を克服する、有望なソリューションとして登場した。
そこで本稿では,ノイズフリーベイアパターンとノイズフリーベイアパターンの変換が可能なデュアルヘッド継手消音ネットワーク(DJRD)を提案する。
提案手法は,ハードウェアやソフトウェアの複雑さを伴わずに,約3dBの競合モデルよりも優れている。
論文 参考訳(メタデータ) (2023-03-23T16:16:50Z) - Self-Supervised Image Restoration with Blurry and Noisy Pairs [66.33313180767428]
ISOの高い画像は、通常難聴のノイズを持つが、長時間露光画像は、カメラの揺れや物体の動きによってぼやけている。
既存のソリューションは一般に、ノイズとブラーのバランスを求め、フルビジョンまたはセルフスーパービジョンのどちらかの下でデノイングやデブロワーリングのモデルを学ぶことを提案している。
本稿では,短時間露光ノイズ画像と長時間露光ぼかし画像との併用による画像復元を提案する。
論文 参考訳(メタデータ) (2022-11-14T12:57:41Z) - D2HNet: Joint Denoising and Deblurring with Hierarchical Network for
Robust Night Image Restoration [17.6005530147501]
現代のスマートフォンカメラによる夜間イメージングは、低光子数と避けられないノイズのため、厄介である。
短時間露光画像の誘導の下で長時間露光画像の復調・拡張により高品質な画像の復元を行うD2HNetフレームワークを開発した。
検証セットと実画像を用いた結果から,視覚的品質と最先端の定量的スコアが得られた。
論文 参考訳(メタデータ) (2022-07-07T13:42:05Z) - HDRUNet: Single Image HDR Reconstruction with Denoising and
Dequantization [39.82945546614887]
本研究では,空間動的エンコーダデコーダネットワークであるHDRUNetを用いて,単一画像HDR再構成のためのエンドツーエンドマッピングを学習する。
本手法は,定量的比較と視覚的品質において最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-05-27T12:12:34Z) - Designing a Practical Degradation Model for Deep Blind Image
Super-Resolution [134.9023380383406]
単一画像スーパーレゾリューション (sisr) 法は, 推定劣化モデルが実画像から逸脱した場合はうまく動作しない。
本稿では, ランダムにシャッフルされたブラー, ダウンサンプリング, ノイズ劣化からなる, より複雑で実用的な劣化モデルを提案する。
論文 参考訳(メタデータ) (2021-03-25T17:40:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。