論文の概要: 3D Trajectory Reconstruction of Moving Points Based on Asynchronous Cameras
- arxiv url: http://arxiv.org/abs/2506.00541v2
- Date: Tue, 03 Jun 2025 01:19:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.188633
- Title: 3D Trajectory Reconstruction of Moving Points Based on Asynchronous Cameras
- Title(参考訳): 非同期カメラを用いた移動点の3次元軌道再構成
- Authors: Huayu Huang, Banglei Guan, Yang Shang, Qifeng Yu,
- Abstract要約: 移動目標の局所化は、その運動特性と動特性を分析するために重要である。
本稿では,非同期カメラを用いた3次元軌道再構成手法を提案する。
- 参考スコア(独自算出の注目度): 6.9017898687323775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Photomechanics is a crucial branch of solid mechanics. The localization of point targets constitutes a fundamental problem in optical experimental mechanics, with extensive applications in various missions of UAVs. Localizing moving targets is crucial for analyzing their motion characteristics and dynamic properties. Reconstructing the trajectories of points from asynchronous cameras is a significant challenge. It encompasses two coupled sub-problems: trajectory reconstruction and camera synchronization. Present methods typically address only one of these sub-problems individually. This paper proposes a 3D trajectory reconstruction method for point targets based on asynchronous cameras, simultaneously solving both sub-problems. Firstly, we extend the trajectory intersection method to asynchronous cameras to resolve the limitation of traditional triangulation that requires camera synchronization. Secondly, we develop models for camera temporal information and target motion, based on imaging mechanisms and target dynamics characteristics. The parameters are optimized simultaneously to achieve trajectory reconstruction without accurate time parameters. Thirdly, we optimize the camera rotations alongside the camera time information and target motion parameters, using tighter and more continuous constraints on moving points. The reconstruction accuracy is significantly improved, especially when the camera rotations are inaccurate. Finally, the simulated and real-world experimental results demonstrate the feasibility and accuracy of the proposed method. The real-world results indicate that the proposed algorithm achieved a localization error of 112.95 m at an observation range of 15 ~ 20 km.
- Abstract(参考訳): 光力学は固体力学の重要な分野である。
ポイントターゲットの局所化は光学実験力学の基本的な問題であり、UAVの様々なミッションに広く応用されている。
移動目標の局所化は、その運動特性と動特性を分析するために重要である。
非同期カメラからポイントの軌跡を再構築することは大きな課題である。
トラジェクトリー再構成とカメラ同期という2つのサブプロブレムが結合している。
現在の方法は通常、これらのサブプロブレムのうちの1つに個別に対処する。
本稿では,非同期カメラを用いた3次元軌道再構成手法を提案する。
まず, カメラ同期を必要とする従来の三角測量の限界を解消するため, トラジェクトリ交差点法を非同期カメラに拡張する。
第2に,撮像機構と目標動力学特性に基づいて,カメラの時間的情報と目標運動のモデルを開発する。
パラメータは正確な時間パラメータなしで軌道再構成を実現するために同時に最適化される。
第3に、移動点に対するより厳密で連続的な制約を用いて、カメラ時間情報と目標運動パラメータとともにカメラ回転を最適化する。
特にカメラの回転が不正確な場合には、再構成精度が大幅に向上する。
最後に,シミュレーションおよび実世界の実験結果から,提案手法の有効性と精度を示す。
実世界の結果は、提案アルゴリズムが15~20kmの観測範囲で112.95mの局所誤差を達成したことを示している。
関連論文リスト
- CoMoGaussian: Continuous Motion-Aware Gaussian Splatting from Motion-Blurred Images [19.08403715388913]
重要な問題は、露出中の動きによるカメラの動きのぼかしであり、正確な3Dシーンの復元を妨げる。
動き赤画像から正確な3Dシーンを再構成する連続運動対応ガウス版CoMoGaussianを提案する。
論文 参考訳(メタデータ) (2025-03-07T11:18:43Z) - Event-Based Tracking Any Point with Motion-Augmented Temporal Consistency [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
出来事の空間的空間性や動きの感度によって引き起こされる課題に対処する。
競合モデルパラメータによる処理を150%高速化する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - CRiM-GS: Continuous Rigid Motion-Aware Gaussian Splatting from Motion-Blurred Images [14.738528284246545]
CRiM-GS は textbfContinuous textbfRigid textbfMotion-aware textbfGaussian textbfSplatting である。
リアルタイムレンダリング速度を維持しながら、モーションブルーの画像から正確な3Dシーンを再構築する。
論文 参考訳(メタデータ) (2024-07-04T13:37:04Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Motion-from-Blur: 3D Shape and Motion Estimation of Motion-blurred
Objects in Videos [115.71874459429381]
本研究では,映像から3次元の運動,3次元の形状,および高度に動きやすい物体の外観を同時推定する手法を提案する。
提案手法は, 高速移動物体の劣化と3次元再構成において, 従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T11:25:14Z) - CoMo: A novel co-moving 3D camera system [0.0]
CoMoは2台の同期高速カメラと回転ステージを組み合わせた共同移動カメラシステムである。
本稿では,システム"ホーム"構成において,カメラの位置とヨー,ピッチ,ロールの3つの角度を測定する外部パラメータのキャリブレーションについて述べる。
本研究では,3次元実験において,再現および測定した3次元距離を1%の相対誤差で比較することにより,システムのロバスト性と精度を評価する。
論文 参考訳(メタデータ) (2021-01-26T13:29:13Z) - Spatiotemporal Bundle Adjustment for Dynamic 3D Human Reconstruction in
the Wild [49.672487902268706]
本稿では,カメラの時間的アライメントと3次元点三角測量を共同で推定する枠組みを提案する。
複数の無同期・無同期ビデオカメラで捉えたイベントにおいて、人間の身体の3次元運動軌跡を再構成する。
論文 参考訳(メタデータ) (2020-07-24T23:50:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。