論文の概要: Investigation of moving objects through atmospheric turbulence from a non-stationary platform
- arxiv url: http://arxiv.org/abs/2410.21639v1
- Date: Tue, 29 Oct 2024 00:54:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:40:41.034801
- Title: Investigation of moving objects through atmospheric turbulence from a non-stationary platform
- Title(参考訳): 非定常プラットフォームからの大気乱流中における物体の移動に関する研究
- Authors: Nicholas Ferrante, Jerome Gilles, Shibin Parameswaran,
- Abstract要約: 本研究では,移動カメラから撮像した画像列から移動物体に対応する光流場を抽出する。
提案手法はまず,光学的流れ場を計算し,カメラの動きによって誘導される流れ場を補償する運動モデルを作成する。
この作業で使用されるシーケンスとコードは、すべてオープンソースで、著者にコンタクトすることで利用可能である。
- 参考スコア(独自算出の注目度): 0.5735035463793008
- License:
- Abstract: In this work, we extract the optical flow field corresponding to moving objects from an image sequence of a scene impacted by atmospheric turbulence \emph{and} captured from a moving camera. Our procedure first computes the optical flow field and creates a motion model to compensate for the flow field induced by camera motion. After subtracting the motion model from the optical flow, we proceed with our previous work, Gilles et al~\cite{gilles2018detection}, where a spatial-temporal cartoon+texture inspired decomposition is performed on the motion-compensated flow field in order to separate flows corresponding to atmospheric turbulence and object motion. Finally, the geometric component is processed with the detection and tracking method and is compared against a ground truth. All of the sequences and code used in this work are open source and are available by contacting the authors.
- Abstract(参考訳): 本研究では, 動画像から移動物体に対応する光学的流れ場を抽出し, 移動カメラから撮影した大気乱流 \emph{and} に影響を受けるシーンの画像列から抽出する。
提案手法はまず,光学的流れ場を計算し,カメラの動きによって誘導される流れ場を補償する運動モデルを作成する。
光の流れから運動モデルを抽出した後、大気の乱流と物体の動きに対応する流れを分離するために、時空間のマンガ+テクスチャインスパイアされた分解を運動補償流場上で行う、Gilles et al~\cite{gilles2018detection} を先行研究として進める。
最後に、幾何成分を検出・追跡法で処理し、基底真理と比較する。
この作業で使用されるシーケンスとコードは、すべてオープンソースで、著者にコンタクトすることで利用可能である。
関連論文リスト
- Detection of moving objects through turbulent media. Decomposition of Oscillatory vs Non-Oscillatory spatio-temporal vector fields [0.0]
本稿では, 大気の乱流の影響を受けながら, 物体の移動を検出する方法について検討する。
そこで本研究では,3次元テクスチャに対する2次元マンガベクトル+分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-28T21:29:56Z) - Motion-adaptive Separable Collaborative Filters for Blind Motion Deblurring [71.60457491155451]
様々な動きによって生じる画像のぼかしを除去することは、難しい問題である。
本研究では,動き適応型分離型協調フィルタと呼ばれる実世界のデブロアリングフィルタモデルを提案する。
本手法は,実世界の動きのぼかし除去に有効な解法を提供し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-04-19T19:44:24Z) - Forward Flow for Novel View Synthesis of Dynamic Scenes [97.97012116793964]
本稿では,前向きワープを用いた動的シーンの新たなビュー合成のためのニューラルラジアンス場(NeRF)アプローチを提案する。
本手法は、新しいビューレンダリングとモーションモデリングの両方において、既存の手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-29T16:51:06Z) - Generative Image Dynamics [80.70729090482575]
本研究では,シーン動作に先立って画像空間をモデル化する手法を提案する。
我々の先行研究は、実映像から抽出した動き軌跡の収集から得られたものである。
論文 参考訳(メタデータ) (2023-09-14T17:54:01Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - Animating Pictures with Eulerian Motion Fields [90.30598913855216]
静止画をリアルなアニメーションループ映像に変換する完全自動手法を示す。
流れ水や吹く煙など,連続流体運動の場面を対象とする。
本稿では,前向きと後向きの両方に特徴を流し,その結果をブレンドする新しいビデオループ手法を提案する。
論文 参考訳(メタデータ) (2020-11-30T18:59:06Z) - Semantic Flow-guided Motion Removal Method for Robust Mapping [7.801798747561309]
動作領域の抽出に意味情報と光フローを利用する新しい動き除去法を提案する。
ORB-SLAM2は運動除去法と統合され,室内および屋外の動的環境において最高の性能を示した。
論文 参考訳(メタデータ) (2020-10-14T08:40:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。