論文の概要: Motion Blur Decomposition with Cross-shutter Guidance
- arxiv url: http://arxiv.org/abs/2404.01120v1
- Date: Mon, 1 Apr 2024 13:55:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 22:25:32.487119
- Title: Motion Blur Decomposition with Cross-shutter Guidance
- Title(参考訳): クロスシャッター誘導による運動ブラスト分解
- Authors: Xiang Ji, Haiyang Jiang, Yinqiang Zheng,
- Abstract要約: 動きのぼかしは、十分に明るい画像のためにより多くの光子を集めるために露光時間を延ばさなければならない、照明が不十分な人工物である。
近年の研究では、ぼやけた画像を空間的・時間的コヒーレンスのある複数のシャープな画像に分解することを目的としている。
本稿では, ローリングシャッター画像におけるスキャニングラインの遅延の順序を利用して, 単一のぼやけた画像の運動分解を強固にする手法を提案する。
- 参考スコア(独自算出の注目度): 33.72961622720793
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion blur is a frequently observed image artifact, especially under insufficient illumination where exposure time has to be prolonged so as to collect more photons for a bright enough image. Rather than simply removing such blurring effects, recent researches have aimed at decomposing a blurry image into multiple sharp images with spatial and temporal coherence. Since motion blur decomposition itself is highly ambiguous, priors from neighbouring frames or human annotation are usually needed for motion disambiguation. In this paper, inspired by the complementary exposure characteristics of a global shutter (GS) camera and a rolling shutter (RS) camera, we propose to utilize the ordered scanline-wise delay in a rolling shutter image to robustify motion decomposition of a single blurry image. To evaluate this novel dual imaging setting, we construct a triaxial system to collect realistic data, as well as a deep network architecture that explicitly addresses temporal and contextual information through reciprocal branches for cross-shutter motion blur decomposition. Experiment results have verified the effectiveness of our proposed algorithm, as well as the validity of our dual imaging setting.
- Abstract(参考訳): 動きのぼかしは、しばしば観察されるイメージアーティファクトであり、特に、十分に明るい画像のためにより多くの光子を集めるために露光時間を延ばさなければならない照明が不十分な場合である。
このようなぼやけた効果を取り除くのではなく、最近の研究では、ぼやけた画像を空間的・時間的コヒーレンスのある複数のシャープな画像に分解することを目的としている。
動きのぼかし分解自体は非常に曖昧であるため、周囲のフレームや人間のアノテーションからの先行は、通常、動きの曖昧さのために必要である。
本稿では,グローバルシャッター(GS)カメラとローリングシャッター(RS)カメラの相補的露光特性に着想を得て,ローリングシャッター画像における順序付き走査線遅延を利用して,単一のぼやけた画像の運動分解を強固にする手法を提案する。
この新たなデュアル画像環境を評価するため,実データ収集のための3軸システムと,クロスシャッター動作のぼかし分解のための相互分岐による時間的・文脈的情報を明示的に処理するディープネットワークアーキテクチャを構築した。
実験により,提案アルゴリズムの有効性と2つの画像設定の有効性が検証された。
関連論文リスト
- ExBluRF: Efficient Radiance Fields for Extreme Motion Blurred Images [58.24910105459957]
極端運動ぼかし画像の新しいビュー合成法であるExBluRFを提案する。
提案手法は,6-DOFカメラトラジェクトリをベースとしたモーションブラー定式化と,ボクセルをベースとした放射場からなる。
既存の作業と比較して、トレーニング時間とGPUメモリ使用量の10倍の順序で、よりシャープな3Dシーンを復元する。
論文 参考訳(メタデータ) (2023-09-16T11:17:25Z) - Recovering Continuous Scene Dynamics from A Single Blurry Image with
Events [58.7185835546638]
インプリシットビデオ関数(IVF)は、同時イベントを伴う単一の動きのぼやけた画像を表現する。
両モードの利点を効果的に活用するために、二重注意変換器を提案する。
提案するネットワークは,限られた参照タイムスタンプの地平線画像の監督のみで訓練される。
論文 参考訳(メタデータ) (2023-04-05T18:44:17Z) - Joint Video Multi-Frame Interpolation and Deblurring under Unknown
Exposure Time [101.91824315554682]
本研究では,より現実的で挑戦的なタスク – 複数フレームのジョイントビデオと,未知の露光時間下での劣化 – を野心的に目標とする。
我々はまず,入力されたぼやけたフレームから露出認識表現を構築するために,教師付きコントラスト学習の変種を採用する。
次に、プログレッシブ露光適応型畳み込みと動き改善による露出と動きの表現に基づいて、映像再構成ネットワークを構築した。
論文 参考訳(メタデータ) (2023-03-27T09:43:42Z) - Learning Spatially Varying Pixel Exposures for Motion Deblurring [49.07867902677453]
本研究では,空間的に異なる画素の露光を利用して動きを損なう新しい手法を提案する。
我々の研究は、未来のコンピュータイメージングにおいて、焦点面センサー-プロセッサが果たすべき役割を説明している。
論文 参考訳(メタデータ) (2022-04-14T23:41:49Z) - A Method For Adding Motion-Blur on Arbitrary Objects By using
Auto-Segmentation and Color Compensation Techniques [6.982738885923204]
本稿では,物体ごとの運動のぼかしを付加する統合フレームワークを提案する。
この方法では、複数のフレームを動きのぼやけなく捕捉し、対象物体に動きのぼやけを生じさせるように蓄積する。
論文 参考訳(メタデータ) (2021-09-22T05:52:27Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z) - Exposure Trajectory Recovery from Motion Blur [90.75092808213371]
ダイナミックシーンにおける動きのぼやけは重要な研究テーマである。
本稿では、ぼやけた画像に含まれる動き情報を表す露光軌跡を定義する。
静止シャープ画像の画素方向の変位をモデル化するための新しい動きオフセット推定フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-06T05:23:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。