論文の概要: Beyond Joint Demosaicking and Denoising: An Image Processing Pipeline
for a Pixel-bin Image Sensor
- arxiv url: http://arxiv.org/abs/2104.09398v1
- Date: Mon, 19 Apr 2021 15:41:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 18:07:56.860666
- Title: Beyond Joint Demosaicking and Denoising: An Image Processing Pipeline
for a Pixel-bin Image Sensor
- Title(参考訳): 共同デモサイクリングとデノイジングを超えて:ピクセル・ビン・イメージセンサのための画像処理パイプライン
- Authors: SMA Sharif, and Rizwan Ali Naqvi, and Mithun Biswas
- Abstract要約: Pixel binningは、スマートフォンカメラのハードウェア制限に対処する最も顕著なソリューションの1つだと考えられている。
本稿では,新しい学習手法を導入することで,このような画像センサ上でのJDD(Joint Desaicing and Denoising)の課題に対処する。
提案手法は,視覚可能な画像を生成するための2つの新しい知覚損失を含む多項目的関数によって導かれる。
- 参考スコア(独自算出の注目度): 0.883717274344425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pixel binning is considered one of the most prominent solutions to tackle the
hardware limitation of smartphone cameras. Despite numerous advantages, such an
image sensor has to appropriate an artefact-prone non-Bayer colour filter array
(CFA) to enable the binning capability. Contrarily, performing essential image
signal processing (ISP) tasks like demosaicking and denoising, explicitly with
such CFA patterns, makes the reconstruction process notably complicated. In
this paper, we tackle the challenges of joint demosaicing and denoising (JDD)
on such an image sensor by introducing a novel learning-based method. The
proposed method leverages the depth and spatial attention in a deep network.
The proposed network is guided by a multi-term objective function, including
two novel perceptual losses to produce visually plausible images. On top of
that, we stretch the proposed image processing pipeline to comprehensively
reconstruct and enhance the images captured with a smartphone camera, which
uses pixel binning techniques. The experimental results illustrate that the
proposed method can outperform the existing methods by a noticeable margin in
qualitative and quantitative comparisons. Code available:
https://github.com/sharif-apu/BJDD_CVPR21.
- Abstract(参考訳): Pixel binningは、スマートフォンカメラのハードウェア制限に対処する最も顕著なソリューションの1つだと考えられている。
このような画像センサは、多くの利点があるにもかかわらず、バイヤーカラーフィルタアレイ(CFA)を組み込むために、アーティファクトを発生させる。
対照的に、CFAパターンを明示的に記述した復号化や復号化といった重要な画像信号処理(ISP)タスクを実行すると、再構成プロセスは明らかに複雑になる。
本稿では,新しい学習手法を導入することで,このような画像センサ上でのJDD(Joint Desaicing and Denoising)の課題に取り組む。
提案手法はディープネットワークにおける奥行きと空間的注意を生かした。
提案するネットワークは、視覚的に妥当な画像を生成するために、2つの新しい知覚損失を含む多項目的関数によって導かれる。
さらに,提案する画像処理パイプラインを拡張して,画素バイニング技術を用いたスマートフォンカメラで撮影した画像の包括的再構成と拡張を行う。
実験の結果,提案手法は質的および定量的比較において,既存の手法を有意なマージンで上回ることができることがわかった。
コード提供: https://github.com/sharif-apu/bjdd_cvpr21。
関連論文リスト
- Arbitrary-Scale Image Generation and Upsampling using Latent Diffusion Model and Implicit Neural Decoder [29.924160271522354]
超解像度(SR)と画像生成はコンピュータビジョンにおいて重要なタスクであり、現実世界のアプリケーションで広く採用されている。
しかし、既存のほとんどの手法は、固定スケールの倍率でのみ画像を生成し、過度なスムーシングやアーティファクトに悩まされている。
最も関連する研究は、インプリシット神経表現(INR)をデノナイズ拡散モデルに適用し、連続分解能で多種多様で高品質なSR結果を得た。
任意のスケールで入力画像の超解像やランダムノイズから生成できる新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-15T12:45:40Z) - A cross Transformer for image denoising [83.68175077524111]
直列ブロック(SB)、並列ブロック(PB)、残留ブロック(RB)を備えたクロストランスフォーマー(CTNet)を提案する。
CTNetは、実画像や合成画像のデノナイジングにおいて、一般的なデノナイジング法よりも優れている。
論文 参考訳(メタデータ) (2023-10-16T13:53:19Z) - Learning Degradation-Independent Representations for Camera ISP Pipelines [14.195578257521934]
本稿では, 自己教師付き学習ベースライン表現の洗練を通じて, 劣化非依存表現(DiR)を学習するための新しい手法を提案する。
提案手法はドメイン一般化能力に優れ,様々なダウンストリームタスクにおいて最先端の手法よりも優れる。
論文 参考訳(メタデータ) (2023-07-03T05:38:28Z) - Dense Pixel-to-Pixel Harmonization via Continuous Image Representation [22.984119094424056]
Inlicit Neural Networks (HINet) を用いた新しい画像調和手法を提案する。
Retinex理論に触発されて、調和を2つの部分に分離し、合成画像の内容と環境をそれぞれキャプチャする。
本手法の有効性を,最先端の手法と比較した実験により検証した。
論文 参考訳(メタデータ) (2023-03-03T02:52:28Z) - NBD-GAP: Non-Blind Image Deblurring Without Clean Target Images [79.33220095067749]
良好な性能を得るためには、トレーニングには大量のぼやけたクリーンなイメージペアが必要である。
テスト中のぼやけた画像とぼやけたカーネルが、トレーニング中に使用するものとは大きく異なる場合、ディープネットワークはよく機能しないことが多い。
論文 参考訳(メタデータ) (2022-09-20T06:21:11Z) - Del-Net: A Single-Stage Network for Mobile Camera ISP [14.168130234198467]
スマートフォンカメラにおける従来の画像信号処理(ISP)パイプラインは、原センサーデータから高品質のsRGBイメージを順次再構成するための画像処理ステップで構成されている。
畳み込みニューラルネットワーク(CNN)を用いたディープラーニング手法は、画像のデノイング、コントラストの強化、超解像、デブロアリングなど、多くの画像関連タスクの解決に人気がある。
本稿では,スマートフォンの展開に適した複雑さでISPパイプライン全体を学ぶために,単一のエンドツーエンドディープラーニングモデルであるDelNetを提案する。
論文 参考訳(メタデータ) (2021-08-03T16:51:11Z) - Deep Contrastive Patch-Based Subspace Learning for Camera Image Signal
Processing [5.678834480723395]
我々は、カメラISPを改良し、異質なアーティファクトに対して堅牢なパッチベースのローカルサブスペースディープニューラルネットワークを提案する。
Patch Subspace Learning Autoencoder (PSL-AE) と呼ぶ。
PSL-AEは、コントラスト学習によって、異なるアーティファクトタイプや歪みレベルを持つ、ノイズの多い第2クリーンイメージペアから抽出されたパッチを符号化する。
論文 参考訳(メタデータ) (2021-04-01T04:40:22Z) - Designing a Practical Degradation Model for Deep Blind Image
Super-Resolution [134.9023380383406]
単一画像スーパーレゾリューション (sisr) 法は, 推定劣化モデルが実画像から逸脱した場合はうまく動作しない。
本稿では, ランダムにシャッフルされたブラー, ダウンサンプリング, ノイズ劣化からなる, より複雑で実用的な劣化モデルを提案する。
論文 参考訳(メタデータ) (2021-03-25T17:40:53Z) - Learning Spatial and Spatio-Temporal Pixel Aggregations for Image and
Video Denoising [104.59305271099967]
ピクセル集計ネットワークを提示し、画像デノイジングのためのピクセルサンプリングと平均戦略を学びます。
時間空間にまたがるサンプル画素をビデオデノナイズするための画素集約ネットワークを開発した。
本手法は,動的シーンにおける大きな動きに起因する誤認問題を解決することができる。
論文 参考訳(メタデータ) (2021-01-26T13:00:46Z) - Deep Photo Cropper and Enhancer [65.11910918427296]
画像に埋め込まれた画像を収穫する新しいタイプの画像強調問題を提案する。
提案手法をディープ・フォト・クリーパーとディープ・イメージ・エンハンサーの2つのディープ・ネットワークに分割した。
フォトクロッパーネットワークでは,埋め込み画像の抽出に空間変換器を用いる。
フォトエンハンサーでは、埋め込み画像中の画素数を増やすために超解像を用いる。
論文 参考訳(メタデータ) (2020-08-03T03:50:20Z) - High-Resolution Image Inpainting with Iterative Confidence Feedback and
Guided Upsampling [122.06593036862611]
既存の画像塗装法は、実アプリケーションで大きな穴を扱う際に、しばしばアーティファクトを生成する。
本稿では,フィードバック機構を備えた反復インペイント手法を提案する。
実験により,本手法は定量評価と定性評価の両方において既存手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2020-05-24T13:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。