論文の概要: Reconstruction of 3D flight trajectories from ad-hoc camera networks
- arxiv url: http://arxiv.org/abs/2003.04784v2
- Date: Wed, 29 Jul 2020 09:40:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 21:38:34.182380
- Title: Reconstruction of 3D flight trajectories from ad-hoc camera networks
- Title(参考訳): アドホックカメラネットワークによる3次元飛行軌跡の再構成
- Authors: Jingtong Li, Jesse Murray, Dorina Ismaili, Konrad Schindler, Cenek
Albl
- Abstract要約: 本研究では,空飛ぶロボットシステムの3次元軌道を,同期しないカメラで撮影した映像から再構成する手法を提案する。
我々のアプローチは、安価で容易に配備できる装置を用いて、動的に飛来する目標の堅牢かつ正確な外部からの追跡を可能にする。
- 参考スコア(独自算出の注目度): 19.96488566402593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method to reconstruct the 3D trajectory of an airborne robotic
system only from videos recorded with cameras that are unsynchronized, may
feature rolling shutter distortion, and whose viewpoints are unknown. Our
approach enables robust and accurate outside-in tracking of dynamically flying
targets, with cheap and easy-to-deploy equipment. We show that, in spite of the
weakly constrained setting, recent developments in computer vision make it
possible to reconstruct trajectories in 3D from unsynchronized, uncalibrated
networks of consumer cameras, and validate the proposed method in a realistic
field experiment. We make our code available along with the data, including
cm-accurate ground-truth from differential GNSS navigation.
- Abstract(参考訳): 本研究では, 回転シャッター歪みを特徴とし, 視点が不明なカメラで撮影した映像のみから, 空飛ぶロボットシステムの3次元軌道を再構築する手法を提案する。
我々のアプローチは、安価で容易に配備できる装置を用いて、動的に飛来する目標の堅牢かつ正確な外部追跡を可能にする。
弱制約環境にもかかわらず,近年のコンピュータビジョンの発展により,非同期型,非共役型消費者カメラネットワークから3dの軌跡を再構成することが可能となり,現実のフィールド実験で提案手法を検証することが可能となった。
差分GNSSナビゲーションからcm精度のグラウンドトルースを含むデータとともにコードを利用可能にしています。
関連論文リスト
- Learning Camera Movement Control from Real-World Drone Videos [25.10006841389459]
既存のAIビデオ撮影手法は、シミュレーショントレーニングにおいて、外観の多様性が限られている。
実世界のトレーニングデータを収集するスケーラブルな手法を提案する。
本システムでは,カメラの動きを効果的に学習できることが示される。
論文 参考訳(メタデータ) (2024-12-12T18:59:54Z) - Stereo4D: Learning How Things Move in 3D from Internet Stereo Videos [76.07894127235058]
本稿では,インターネットの立体視,広角ビデオから高品質な4D再構成をマイニングするシステムを提案する。
本研究では,この手法を用いて世界整合型擬似3次元点雲の形で大規模データを生成する。
DUSt3Rの変種をトレーニングし、実世界の画像対から構造と3次元運動を予測することで、このデータの有用性を実証する。
論文 参考訳(メタデータ) (2024-12-12T18:59:54Z) - Street Gaussians without 3D Object Tracker [86.62329193275916]
既存の手法では、オブジェクトポーズの労働集約的な手動ラベリングを使用して、標準的な空間内で動的オブジェクトを再構築し、レンダリング中にこれらのポーズに基づいてそれらを動かす。
本研究では,3次元オブジェクト融合戦略における2次元ディープトラッカーの関連性を利用して,安定なオブジェクト追跡モジュールを提案する。
我々は、軌道誤差を自律的に補正し、見逃した検出を回復する暗黙の特徴空間に、モーションラーニング戦略を導入することで、避けられないトラッキングエラーに対処する。
論文 参考訳(メタデータ) (2024-12-07T05:49:42Z) - DynOMo: Online Point Tracking by Dynamic Online Monocular Gaussian Reconstruction [65.46359561104867]
モノクラーカメラ入力からのオンライン2Dおよび3Dポイントトラッキングの課題を対象としている。
我々は3Dガウススプラッティングを利用して動的シーンをオンラインに再構築する。
我々は,オンラインのポイントトラッキングとリコンストラクションを推進し,様々な現実のシナリオに適用可能にすることを目的としている。
論文 参考訳(メタデータ) (2024-09-03T17:58:03Z) - Reconstructing Satellites in 3D from Amateur Telescope Images [42.850623200702394]
本稿では、小型アマチュア望遠鏡で撮影した映像を利用して、低地球軌道上の衛星の3次元再構成のための枠組みを提案する。
これらの望遠鏡から得られたビデオデータは、激しい動きのぼかし、大気の乱流、広汎な背景光汚染、焦点距離の延長、観測視点の制約など、標準的な3D再構成作業のデータと大きく異なる。
本研究では,高忠実度3次元モデル再構成を実現するために,SfM(Structure from Motion)アプローチと改良された3次元ガウススプレイティングアルゴリズムを適用した。
論文 参考訳(メタデータ) (2024-04-29T03:13:09Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - Aerial Monocular 3D Object Detection [67.20369963664314]
DVDETは2次元画像空間と3次元物理空間の両方で空中単分子3次元物体検出を実現するために提案される。
高度視差変形問題に対処するため,新しい測地変形変換モジュールを提案する。
より多くの研究者がこの領域を調査するよう促すため、データセットと関連するコードをリリースします。
論文 参考訳(メタデータ) (2022-08-08T08:32:56Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Real-time dense 3D Reconstruction from monocular video data captured by
low-cost UAVs [0.3867363075280543]
リアルタイム3d再構築は,ナビゲーションや緊急時のライブ評価など,多数のアプリケーションにメリットがある環境の高速密マッピングを可能にする。
ほとんどのリアルタイム対応のアプローチとは対照的に、我々のアプローチは明示的な深度センサーを必要としない。
建物周辺を斜め視で飛行する無人航空機(UAV)の自己動作を利用して、選択された画像のカメラ軌道と深度の両方を、十分な新規な内容で推定します。
論文 参考訳(メタデータ) (2021-04-21T13:12:17Z) - Integration of the 3D Environment for UAV Onboard Visual Object Tracking [7.652259812856325]
無人航空機からの単一の視覚的物体追跡は、根本的な課題となる。
本研究では,モデルフリーのビジュアルオブジェクトトラッカー,スパース3D再構成,状態推定器を組み合わせたパイプラインを提案する。
画像空間ではなく3次元空間における目標位置を表現することにより,エゴモーション時のトラッキングを安定化させる。
論文 参考訳(メタデータ) (2020-08-06T18:37:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。