論文の概要: Robust Scene Inference under Noise-Blur Dual Corruptions
- arxiv url: http://arxiv.org/abs/2207.11643v1
- Date: Sun, 24 Jul 2022 02:52:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 13:41:56.471369
- Title: Robust Scene Inference under Noise-Blur Dual Corruptions
- Title(参考訳): 騒音二重破壊下におけるロバストなシーン推論
- Authors: Bhavya Goyal, Jean-Fran\c{c}ois Lalonde, Yin Li, Mohit Gupta
- Abstract要約: 低照度下でのシーン推測は、撮像画像の厳しいノイズのために難しい問題である。
同じシーンの複数の露出を同時に撮影できるカメラの台頭により、このトレードオフを克服することが可能である。
低照度および運動下でのロバスト推論にこれらのマルチ露光キャプチャを利用する手法を提案する。
- 参考スコア(独自算出の注目度): 20.0721386176278
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Scene inference under low-light is a challenging problem due to severe noise
in the captured images. One way to reduce noise is to use longer exposure
during the capture. However, in the presence of motion (scene or camera
motion), longer exposures lead to motion blur, resulting in loss of image
information. This creates a trade-off between these two kinds of image
degradations: motion blur (due to long exposure) vs. noise (due to short
exposure), also referred as a dual image corruption pair in this paper. With
the rise of cameras capable of capturing multiple exposures of the same scene
simultaneously, it is possible to overcome this trade-off. Our key observation
is that although the amount and nature of degradation varies for these
different image captures, the semantic content remains the same across all
images. To this end, we propose a method to leverage these multi exposure
captures for robust inference under low-light and motion. Our method builds on
a feature consistency loss to encourage similar results from these individual
captures, and uses the ensemble of their final predictions for robust visual
recognition. We demonstrate the effectiveness of our approach on simulated
images as well as real captures with multiple exposures, and across the tasks
of object detection and image classification.
- Abstract(参考訳): 低照度下でのシーン推測は、撮像画像の厳しいノイズのために難しい問題である。
ノイズを減らす方法の1つは、捕獲中に長時間露光を使用することである。
しかし、モーション(シーンやカメラの動き)の存在下では、長時間の露光によって動きがぼやけ、画像情報が失われる。
これにより、これらの2種類の画像劣化のトレードオフが生じる: 動きのぼけ(長時間露光による)とノイズ(短い露光による)である。
同じシーンの複数の露出を同時に撮影できるカメラの台頭により、このトレードオフを克服することが可能である。
私たちのキーとなる観察は、これらの異なる画像キャプチャーにおいて劣化の量と性質は異なりますが、セマンティックコンテンツはすべての画像で同じです。
そこで本研究では,低照度動作下でのロバスト推論にこれらのマルチ露光キャプチャを利用する手法を提案する。
提案手法は, 特徴の整合性を損なうことにより, 個々のキャプチャの類似した結果を促進し, 最終的な予測のアンサンブルを用いて, 堅牢な視覚認識を行う。
本研究は,物体検出と画像分類のタスクにおいて,複数の露光による実撮影とシミュレーション画像に対するアプローチの有効性を実証する。
関連論文リスト
- Motion Blur Decomposition with Cross-shutter Guidance [33.72961622720793]
動きのぼかしは、十分に明るい画像のためにより多くの光子を集めるために露光時間を延ばさなければならない、照明が不十分な人工物である。
近年の研究では、ぼやけた画像を空間的・時間的コヒーレンスのある複数のシャープな画像に分解することを目的としている。
本稿では, ローリングシャッター画像におけるスキャニングラインの遅延の順序を利用して, 単一のぼやけた画像の運動分解を強固にする手法を提案する。
論文 参考訳(メタデータ) (2024-04-01T13:55:40Z) - Dual-Camera Joint Deblurring-Denoising [24.129908866882346]
高品質な画像を得るための新しいデュアルカメラ手法を提案する。
本手法では,1台のカメラで撮影した短い露光画像の同期バーストと,もう1台のカメラで撮影した長時間露光画像を用いる。
本手法は,GoProデータセットから得られた合成デュアルカメラ画像に対して,次の最適手法に比べて5倍のトレーニングパラメータで最先端の結果を得られる。
論文 参考訳(メタデータ) (2023-09-16T00:58:40Z) - Recovering Continuous Scene Dynamics from A Single Blurry Image with
Events [58.7185835546638]
インプリシットビデオ関数(IVF)は、同時イベントを伴う単一の動きのぼやけた画像を表現する。
両モードの利点を効果的に活用するために、二重注意変換器を提案する。
提案するネットワークは,限られた参照タイムスタンプの地平線画像の監督のみで訓練される。
論文 参考訳(メタデータ) (2023-04-05T18:44:17Z) - Joint Video Multi-Frame Interpolation and Deblurring under Unknown
Exposure Time [101.91824315554682]
本研究では,より現実的で挑戦的なタスク – 複数フレームのジョイントビデオと,未知の露光時間下での劣化 – を野心的に目標とする。
我々はまず,入力されたぼやけたフレームから露出認識表現を構築するために,教師付きコントラスト学習の変種を採用する。
次に、プログレッシブ露光適応型畳み込みと動き改善による露出と動きの表現に基づいて、映像再構成ネットワークを構築した。
論文 参考訳(メタデータ) (2023-03-27T09:43:42Z) - Self-Supervised Image Restoration with Blurry and Noisy Pairs [66.33313180767428]
ISOの高い画像は、通常難聴のノイズを持つが、長時間露光画像は、カメラの揺れや物体の動きによってぼやけている。
既存のソリューションは一般に、ノイズとブラーのバランスを求め、フルビジョンまたはセルフスーパービジョンのどちらかの下でデノイングやデブロワーリングのモデルを学ぶことを提案している。
本稿では,短時間露光ノイズ画像と長時間露光ぼかし画像との併用による画像復元を提案する。
論文 参考訳(メタデータ) (2022-11-14T12:57:41Z) - Learning Spatially Varying Pixel Exposures for Motion Deblurring [49.07867902677453]
本研究では,空間的に異なる画素の露光を利用して動きを損なう新しい手法を提案する。
我々の研究は、未来のコンピュータイメージングにおいて、焦点面センサー-プロセッサが果たすべき役割を説明している。
論文 参考訳(メタデータ) (2022-04-14T23:41:49Z) - Clean Images are Hard to Reblur: A New Clue for Deblurring [56.28655168605079]
画像のシャープ化のために,新しい低レベルの知覚損失を提案する。
画像のぼかしにフォーカスするために、除去されていない動きのぼかしを増幅するリブレーションモジュールを訓練します。
トレーニング段階における教師付き再ブラッシング損失は、デブロワー画像と基準シャープ画像との増幅されたぼかしを比較する。
推論段階での自己ブラリング損失は、デブラリング画像がまだ増幅すべきぼやけを含むかどうかを検査する。
論文 参考訳(メタデータ) (2021-04-26T15:49:21Z) - Exposure Trajectory Recovery from Motion Blur [90.75092808213371]
ダイナミックシーンにおける動きのぼやけは重要な研究テーマである。
本稿では、ぼやけた画像に含まれる動き情報を表す露光軌跡を定義する。
静止シャープ画像の画素方向の変位をモデル化するための新しい動きオフセット推定フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-06T05:23:33Z) - Deep Exposure Fusion with Deghosting via Homography Estimation and
Attention Learning [29.036754445277314]
ゴースト加工品とカメラの動きや移動物体による細部損失に対処する深層核融合ネットワークを提案する。
携帯端末を用いた実世界の写真実験により,暗黒領域と明るい領域の鮮明な色調を忠実に再現し,高品質な画像を生成することができることを示した。
論文 参考訳(メタデータ) (2020-04-20T07:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。