論文の概要: IR Motion Deblurring
- arxiv url: http://arxiv.org/abs/2111.11734v1
- Date: Tue, 23 Nov 2021 09:12:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 00:33:13.409775
- Title: IR Motion Deblurring
- Title(参考訳): IRモーションデブロアリング
- Authors: Nisha Varghese, Mahesh Mohan M. R., A. N. Rajagopalan
- Abstract要約: カメラジンバルシステムは、ナビゲーション、目標追跡、セキュリティ、監視など、様々な航空や水上システムにおいて重要である。
所定視野(FOV)を短時間で再検討できるため、ジンバルのより高い操舵速度(回転角)がリアルタイムアプリケーションに好ましい。
露出時間におけるジンバルとシーン間の相対的な動きにより、キャプチャされたビデオフレームは動きのぼけに悩まされる。
動きを損なう深層学習法は速いが、異なる領域に満足できる一般化はしない。
- 参考スコア(独自算出の注目度): 34.584541842225306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Camera gimbal systems are important in various air or water borne systems for
applications such as navigation, target tracking, security and surveillance. A
higher steering rate (rotation angle per second) of gimbal is preferable for
real-time applications since a given field-of-view (FOV) can be revisited
within a short period of time. However, due to relative motion between the
gimbal and scene during the exposure time, the captured video frames can suffer
from motion blur. Since most of the post-capture applications require blurfree
images, motion deblurring in real-time is an important need. Even though there
exist blind deblurring methods which aim to retrieve latent images from blurry
inputs, they are constrained by very high-dimensional optimization thus
incurring large execution times. On the other hand, deep learning methods for
motion deblurring, though fast, do not generalize satisfactorily to different
domains (e.g., air, water, etc). In this work, we address the problem of
real-time motion deblurring in infrared (IR) images captured by a gimbal-based
system. We reveal how a priori knowledge of the blur-kernel can be used in
conjunction with non-blind deblurring methods to achieve real-time performance.
Importantly, our mathematical model can be leveraged to create large-scale
datasets with realistic gimbal motion blur. Such datasets which are a rarity
can be a valuable asset for contemporary deep learning methods. We show that,
in comparison to the state-of-the-art techniques in deblurring, our method is
better suited for practical gimbal-based imaging systems.
- Abstract(参考訳): カメラジンバルシステムは、ナビゲーション、目標追跡、セキュリティ、監視など、様々な航空や水上システムにおいて重要である。
所定のフィールドオブビュー(fov)を短時間で再訪できるため、リアルタイムアプリケーションではジンバルのステアリングレート(毎秒回転角)が高いことが好ましい。
しかし、露出時間におけるジンバルとシーン間の相対的な動きにより、キャプチャされたビデオフレームは動きのぼけに悩まされる。
キャプチャ後のアプリケーションの多くはぼやけのない画像を必要とするため、リアルタイムのモーションデブラリングは重要なニーズである。
ぼやけた入力から潜像を抽出することを目的としたブラインドデブロワー法は存在するが、非常に高次元の最適化によって制約され、実行時間が長くなる。
一方で、モーションデブラリングのディープラーニング手法は、高速ではあるが、異なる領域(空気、水など)に十分一般化していない。
本研究では,ジンバル系で撮影された赤外線(ir)画像におけるリアルタイム動画像のゆらぎ問題に対処する。
本研究では,非ブラインドデブロアリング法と併用して,ボケカーネルの事前知識をリアルタイムな性能を実現する方法を明らかにする。
重要なことに、我々の数学的モデルは、現実的なジンバル運動のぼかしを持つ大規模なデータセットを作成するために利用することができる。
希少なデータセットは、現代のディープラーニング手法にとって貴重な資産である。
本手法は,デブロアリングにおける最先端技術と比較して,実用的なジンバル画像システムに適していることを示す。
関連論文リスト
- Towards Real-world Event-guided Low-light Video Enhancement and Deblurring [39.942568142125126]
イベントカメラは、低照度環境における画質向上のための有望なソリューションとして登場した。
これらのタスクを効果的に処理するためのエンドツーエンドフレームワークを導入します。
我々のフレームワークは、イベントやフレームからの時間情報を効率的に活用するためのモジュールを組み込んでいます。
論文 参考訳(メタデータ) (2024-08-27T09:44:54Z) - Gaussian Splatting on the Move: Blur and Rolling Shutter Compensation for Natural Camera Motion [25.54868552979793]
本稿では,カメラの動きに適応し,手持ち映像データを用いた高品質なシーン再構成を実現する手法を提案する。
合成データと実データの両方を用いて、既存の手法よりもカメラの動きを軽減できる性能を示した。
論文 参考訳(メタデータ) (2024-03-20T06:19:41Z) - Robust Frame-to-Frame Camera Rotation Estimation in Crowded Scenes [8.061773364318313]
本稿では,携帯型モノクロビデオから,混み合った現実世界のシーンにおけるカメラ回転推定手法を提案する。
我々は、17の動画シーケンスに対して、高精度で厳密に検証された地上真実を持つ新しいデータセットとベンチマークを提供する。
これは、混み合ったシーンに対する強力な新しいパフォーマンスポイントであり、コンピュータビジョンにとって重要な設定である。
論文 参考訳(メタデータ) (2023-09-15T17:44:07Z) - Joint Video Multi-Frame Interpolation and Deblurring under Unknown
Exposure Time [101.91824315554682]
本研究では,より現実的で挑戦的なタスク – 複数フレームのジョイントビデオと,未知の露光時間下での劣化 – を野心的に目標とする。
我々はまず,入力されたぼやけたフレームから露出認識表現を構築するために,教師付きコントラスト学習の変種を採用する。
次に、プログレッシブ露光適応型畳み込みと動き改善による露出と動きの表現に基づいて、映像再構成ネットワークを構築した。
論文 参考訳(メタデータ) (2023-03-27T09:43:42Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Learning Spatially Varying Pixel Exposures for Motion Deblurring [49.07867902677453]
本研究では,空間的に異なる画素の露光を利用して動きを損なう新しい手法を提案する。
我々の研究は、未来のコンピュータイメージングにおいて、焦点面センサー-プロセッサが果たすべき役割を説明している。
論文 参考訳(メタデータ) (2022-04-14T23:41:49Z) - Video Frame Interpolation without Temporal Priors [91.04877640089053]
ビデオフレームは、既存の中間フレームをビデオシーケンスで合成することを目的としている。
フレーム/秒(FPS)やフレーム露光時間といったビデオの時間的先行は、異なるカメラセンサーによって異なる場合がある。
我々は、より良い合成結果を得るために、新しい光フロー改善戦略を考案する。
論文 参考訳(メタデータ) (2021-12-02T12:13:56Z) - A Method For Adding Motion-Blur on Arbitrary Objects By using
Auto-Segmentation and Color Compensation Techniques [6.982738885923204]
本稿では,物体ごとの運動のぼかしを付加する統合フレームワークを提案する。
この方法では、複数のフレームを動きのぼやけなく捕捉し、対象物体に動きのぼやけを生じさせるように蓄積する。
論文 参考訳(メタデータ) (2021-09-22T05:52:27Z) - Exposure Trajectory Recovery from Motion Blur [90.75092808213371]
ダイナミックシーンにおける動きのぼやけは重要な研究テーマである。
本稿では、ぼやけた画像に含まれる動き情報を表す露光軌跡を定義する。
静止シャープ画像の画素方向の変位をモデル化するための新しい動きオフセット推定フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-06T05:23:33Z) - Prior-enlightened and Motion-robust Video Deblurring [29.158836861982742]
PriOr-enlightened and MOTION-robust deblurring model (PROMOTION) は難解なぼかしに適したモデルである。
我々は、異種先行情報を効率的に符号化するために、3Dグループ畳み込みを用いる。
また、一様でないぼやけた時間領域をよりよく扱うために、ぼやけた分布を表す事前設計を行う。
論文 参考訳(メタデータ) (2020-03-25T04:16:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。