論文の概要: Learning Spatially Varying Pixel Exposures for Motion Deblurring
- arxiv url: http://arxiv.org/abs/2204.07267v1
- Date: Thu, 14 Apr 2022 23:41:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-18 12:16:58.552634
- Title: Learning Spatially Varying Pixel Exposures for Motion Deblurring
- Title(参考訳): 動きデブラリングのための空間変化画素露光学習
- Authors: Cindy M. Nguyen, Julien N.P. Martel, Gordon Wetzstein
- Abstract要約: 本研究では,空間的に異なる画素の露光を利用して動きを損なう新しい手法を提案する。
我々の研究は、未来のコンピュータイメージングにおいて、焦点面センサー-プロセッサが果たすべき役割を説明している。
- 参考スコア(独自算出の注目度): 49.07867902677453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computationally removing the motion blur introduced by camera shake or object
motion in a captured image remains a challenging task in computational
photography. Deblurring methods are often limited by the fixed global exposure
time of the image capture process. The post-processing algorithm either must
deblur a longer exposure that contains relatively little noise or denoise a
short exposure that intentionally removes the opportunity for blur at the cost
of increased noise. We present a novel approach of leveraging spatially varying
pixel exposures for motion deblurring using next-generation focal-plane
sensor--processors along with an end-to-end design of these exposures and a
machine learning--based motion-deblurring framework. We demonstrate in
simulation and a physical prototype that learned spatially varying pixel
exposures (L-SVPE) can successfully deblur scenes while recovering high
frequency detail. Our work illustrates the promising role that focal-plane
sensor--processors can play in the future of computational imaging.
- Abstract(参考訳): 撮影画像におけるカメラの揺れや物体の動きによって引き起こされる動きのぼかしを計算的に除去することは、計算写真では難しい課題である。
分解法は、画像キャプチャプロセスの固定されたグローバル露光時間によって制限されることが多い。
ポストプロセッシングアルゴリズムは、比較的小さなノイズを含むより長い露光を損なうか、または、ノイズの増加のコストで意図的にぼやける機会を取り除く短い露光を損なう必要がある。
本稿では,次世代の焦点平面センサプロセッサを用いて,空間的に変化する画素露光を利用する新しい手法と,これらの露光をエンドツーエンドに設計する手法と,機械学習に基づくモーション露光フレームワークを提案する。
我々は,空間的に異なるピクセル露光(L-SVPE)を学習した物理プロトタイプをシミュレーションで実証し,高頻度の詳細を再現しながら,シーンの劣化を再現できることを示した。
我々の研究は、未来のコンピュータイメージングにおいて、焦点面センサー-プロセッサが果たすべき役割を説明している。
関連論文リスト
- Motion Blur Decomposition with Cross-shutter Guidance [33.72961622720793]
動きのぼかしは、十分に明るい画像のためにより多くの光子を集めるために露光時間を延ばさなければならない、照明が不十分な人工物である。
近年の研究では、ぼやけた画像を空間的・時間的コヒーレンスのある複数のシャープな画像に分解することを目的としている。
本稿では, ローリングシャッター画像におけるスキャニングラインの遅延の順序を利用して, 単一のぼやけた画像の運動分解を強固にする手法を提案する。
論文 参考訳(メタデータ) (2024-04-01T13:55:40Z) - ExBluRF: Efficient Radiance Fields for Extreme Motion Blurred Images [58.24910105459957]
極端運動ぼかし画像の新しいビュー合成法であるExBluRFを提案する。
提案手法は,6-DOFカメラトラジェクトリをベースとしたモーションブラー定式化と,ボクセルをベースとした放射場からなる。
既存の作業と比較して、トレーニング時間とGPUメモリ使用量の10倍の順序で、よりシャープな3Dシーンを復元する。
論文 参考訳(メタデータ) (2023-09-16T11:17:25Z) - Robust estimation of exposure ratios in multi-exposure image stacks [12.449313419096821]
入力画像から直接露光率を推定する。
カメラノイズによる推定誤差を最小限に抑えるために,一対の露光から画素を選択できる最適化問題として露出時間推定を導出する。
複数の空間タイルから画素を収集することにより、カメラや物体の動きによる画素の不一致に容易に対応できることを示す。
論文 参考訳(メタデータ) (2023-08-05T23:42:59Z) - Joint Video Multi-Frame Interpolation and Deblurring under Unknown
Exposure Time [101.91824315554682]
本研究では,より現実的で挑戦的なタスク – 複数フレームのジョイントビデオと,未知の露光時間下での劣化 – を野心的に目標とする。
我々はまず,入力されたぼやけたフレームから露出認識表現を構築するために,教師付きコントラスト学習の変種を採用する。
次に、プログレッシブ露光適応型畳み込みと動き改善による露出と動きの表現に基づいて、映像再構成ネットワークを構築した。
論文 参考訳(メタデータ) (2023-03-27T09:43:42Z) - High Dynamic Range and Super-Resolution from Raw Image Bursts [52.341483902624006]
本稿では,露光ブラケット付きハンドヘルドカメラで撮影した原写真からの高解像度・高ダイナミックレンジカラー画像の再構成について紹介する。
提案アルゴリズムは,画像復元における最先端の学習手法と比較して,メモリ要求の少ない高速なアルゴリズムである。
実験では、ハンドヘルドカメラで野生で撮影された実際の写真に最大4ドル(約4,800円)の超高解像度な要素で優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-29T13:31:28Z) - MBA-VO: Motion Blur Aware Visual Odometry [99.56896875807635]
運動のぼかしは視覚計測法に残る主要な課題の1つである。
露光時間が長い低照度条件では、比較的遅いカメラの動きでも動きのぼやけが現れます。
露光時間内にカメラの局所軌道をモデル化し,推定する,直接的なアプローチによる新しいハイブリッド視覚オドメトリーパイプラインを提案する。
論文 参考訳(メタデータ) (2021-03-25T09:02:56Z) - Exposure Trajectory Recovery from Motion Blur [90.75092808213371]
ダイナミックシーンにおける動きのぼやけは重要な研究テーマである。
本稿では、ぼやけた画像に含まれる動き情報を表す露光軌跡を定義する。
静止シャープ画像の画素方向の変位をモデル化するための新しい動きオフセット推定フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-06T05:23:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。