論文の概要: Deep Denoising of Flash and No-Flash Pairs for Photography in Low-Light
Environments
- arxiv url: http://arxiv.org/abs/2012.05116v2
- Date: Wed, 14 Apr 2021 19:26:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 02:01:42.716527
- Title: Deep Denoising of Flash and No-Flash Pairs for Photography in Low-Light
Environments
- Title(参考訳): 低照度環境下での撮影のためのフラッシュとノーフラッシュペアのディープデノイング
- Authors: Zhihao Xia, Micha\"el Gharbi, Federico Perazzi, Kalyan Sunkavalli,
Ayan Chakrabarti
- Abstract要約: 低照度環境下でのフラッシュの有無にかかわらず、高速連続で撮影された画像のペアをデノイズするニューラルネットワークベースの方法を紹介します。
私たちの目標は、ノイズの多いノーフラッシュ画像の周囲照明から色と気分を維持するシーンの高品質のレンダリングを作成することです。
- 参考スコア(独自算出の注目度): 51.74566709730618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a neural network-based method to denoise pairs of images taken
in quick succession, with and without a flash, in low-light environments. Our
goal is to produce a high-quality rendering of the scene that preserves the
color and mood from the ambient illumination of the noisy no-flash image, while
recovering surface texture and detail revealed by the flash. Our network
outputs a gain map and a field of kernels, the latter obtained by linearly
mixing elements of a per-image low-rank kernel basis. We first apply the kernel
field to the no-flash image, and then multiply the result with the gain map to
create the final output. We show our network effectively learns to produce
high-quality images by combining a smoothed out estimate of the scene's ambient
appearance from the no-flash image, with high-frequency albedo details
extracted from the flash input. Our experiments show significant improvements
over alternative captures without a flash, and baseline denoisers that use
flash no-flash pairs. In particular, our method produces images that are both
noise-free and contain accurate ambient colors without the sharp shadows or
strong specular highlights visible in the flash image.
- Abstract(参考訳): 低照度環境では、フラッシュの有無にかかわらず、素早く連続して撮影された画像のペアを識別するニューラルネットワークベースの手法を導入する。
我々のゴールは、フラッシュによって表面のテクスチャとディテールを回復しながら、ノイズの多いノーフラッシュ画像の周囲の照明から色と気分を保存できる高品質なシーンレンダリングを作ることである。
このネットワークはゲインマップとカーネルのフィールドを出力し、後者は画像単位の低ランクカーネル基底の要素を線形に混合して得られる。
まずカーネルフィールドをno-flash画像に適用し、次にゲインマップで結果を乗算して最終的な出力を生成する。
本ネットワークは,フラッシュ入力から抽出した高周波アルベドディテールと非フラッシュ画像からシーンの周囲外観の平滑化推定を組み合わせることで,高品質な画像の生成を効果的に行う。
我々の実験では、フラッシュ無しの代替キャプチャやフラッシュノーフラッシュペアを使用するベースラインデノイザよりも大幅に改善されている。
特に,フラッシュ画像に鮮明な影や強い鏡のハイライトを生じさせることなく,ノイズのない正確な環境色を含む画像を生成する。
関連論文リスト
- WildLight: In-the-wild Inverse Rendering with a Flashlight [77.31815397135381]
本研究では、未知の環境光下での逆レンダリングのための実用的な測光ソリューションを提案する。
本システムは,スマートフォンで撮影した多視点画像のみを用いて,シーン形状と反射率を復元する。
提案手法は実装が容易で,セットアップも容易で,既存の逆レンダリング技術よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-03-24T17:59:56Z) - Robust Reflection Removal with Flash-only Cues in the Wild [88.13531903652526]
一対のフラッシュと周囲(非フラッシュ)画像から頑健な反射除去のための反射除去キューを提案する。
提案手法はPSNRにおいて5.23dB以上の反射除去手法より優れる。
我々は、フラッシュと非フラッシュのペア間の不整合に対処するために、ハンドヘルド写真へのアプローチを拡張した。
論文 参考訳(メタデータ) (2022-11-05T14:09:10Z) - Seeing Through The Noisy Dark: Toward Real-world Low-Light Image
Enhancement and Denoising [125.56062454927755]
現実の低照度環境は通常、光やハードウェアの限界が不足しているため、視界が低く、騒音が重い。
我々は、RLED-Net(Real-world Low-light Enhancement & Denoising Network)と呼ばれる新しいエンドツーエンド手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:57:23Z) - Seeing Far in the Dark with Patterned Flash [5.540878289831889]
遠距離でのフラッシュイメージングのための新しいフラッシュ技術「パターンフラッシュ」を提案する。
パターンフラッシュは光電力をドットアレイに集中させる。
畳み込みニューラルネットワークを用いた画像再構成と深度推定アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-07-25T23:16:50Z) - Shallow camera pipeline for night photography rendering [20.683831741296444]
我々は,NTIRE2022 Night Photography Renderingチャレンジの一環として,低照度撮影のためのカメラパイプラインを導入する。
我々のパイプラインは、局所的な光強調器を高ダイナミックレンジ補正の形式として利用し、続いて画像ヒストグラムを大域的に調整して、洗い出された結果を防ぐ。
このソリューションは、ディープ畳み込みニューラルネットワークに基づいて、他のエントリに匹敵する選好投票数で、競争で5位に達した。
論文 参考訳(メタデータ) (2022-04-19T16:18:21Z) - Low-light Image Enhancement via Breaking Down the Darkness [8.707025631892202]
本稿では,分割・ルール原理に触発された新しい枠組みを提案する。
本稿では,RGB空間から輝度クロミナンス画像に変換することを提案する。
調整可能なノイズ抑制ネットワークは、輝度が明るくなるときにノイズを取り除くように設計されている。
強化された輝度はさらに、色マッパーが現実的な色を生成するためのガイダンスとなる。
論文 参考訳(メタデータ) (2021-11-30T16:50:59Z) - Deep Bilateral Retinex for Low-Light Image Enhancement [96.15991198417552]
低照度画像は、低コントラスト、色歪み、測定ノイズによる視界の低下に悩まされる。
本稿では,低照度画像強調のための深層学習手法を提案する。
提案手法は最先端の手法と非常に競合し, 極めて低照度で撮影した画像の処理において, 他に比べて大きな優位性を有する。
論文 参考訳(メタデータ) (2020-07-04T06:26:44Z) - Attention-based network for low-light image enhancement [44.13717081876637]
本稿では,センサデータから高品質で高画質な低照度画像を生成する新しいアテンションベースニューラルネットワークを提案する。
我々は、望ましくない色収差と雑音を抑制するために、注意戦略(チャネルアテンションと空間アテンションモジュール)を用いる。
実験では,色収差の抑制やノイズアーティファクトの強化の観点から,提案するネットワークの優位性を実証した。
論文 参考訳(メタデータ) (2020-05-20T02:43:02Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。