論文の概要: Initialization of Monocular Visual Navigation for Autonomous Agents Using Modified Structure from Small Motion
- arxiv url: http://arxiv.org/abs/2409.16465v1
- Date: Tue, 24 Sep 2024 21:33:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 08:21:10.132000
- Title: Initialization of Monocular Visual Navigation for Autonomous Agents Using Modified Structure from Small Motion
- Title(参考訳): 微動の修正構造を用いた自律エージェントの単眼視覚ナビゲーションの初期化
- Authors: Juan-Diego Florez, Mehregan Dor, Panagiotis Tsiotras,
- Abstract要約: 弱視射影シーンにおける単分子エージェントを頑健に初期化するために、最先端の因子グラフ最適化パイプラインを提案する。
提案手法は,弱視射影を示す実写型衛星検査画像に対して検証する。
- 参考スコア(独自算出の注目度): 13.69678622755871
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a standalone monocular visual Simultaneous Localization and Mapping (vSLAM) initialization pipeline for autonomous robots in space. Our method, a state-of-the-art factor graph optimization pipeline, enhances classical Structure from Small Motion (SfSM) to robustly initialize a monocular agent in weak-perspective projection scenes. Furthermore, it overcomes visual estimation challenges introduced by spacecraft inspection trajectories, such as: center-pointing motion, which exacerbates the bas-relief ambiguity, and the presence of a dominant plane in the scene, which causes motion estimation degeneracies in classical Structure from Motion (SfM). We validate our method on realistic, simulated satellite inspection images exhibiting weak-perspective projection, and we demonstrate its effectiveness and improved performance compared to other monocular initialization procedures.
- Abstract(参考訳): 宇宙空間における自律型ロボットのためのスタンドアロンの単眼視覚的同時局所マッピング(vSLAM)の初期化パイプラインを提案する。
提案手法は,SfSM (Small Motion) からの古典的構造を改良し,弱視射影シーンにおける単分子エージェントを頑健に初期化する。
さらに、バズ・リリーフの曖昧さを悪化させるセンター・ポインティング・ムーブメント(Central-pointing Motion)や、シーン内に支配的な平面が存在することで、古典的な動き構造(Strucical Structure from Motion, SfM)における運動推定の退化を引き起こすような、宇宙船の検査軌道によってもたらされる視覚的推定課題を克服する。
本手法の有効性と性能を他の単分子初期化法と比較し,本手法の有効性を検証した。
関連論文リスト
- Simultaneous Map and Object Reconstruction [66.66729715211642]
本稿では,LiDARから大規模都市景観を動的に再現する手法を提案する。
我々は、最近の新しいビュー合成法から着想を得て、大域的な最適化として再構築問題を提起する。
連続動作の慎重なモデリングにより, 回転するLiDARセンサの回転シャッター効果を補うことができる。
論文 参考訳(メタデータ) (2024-06-19T23:53:31Z) - Self-Supervised Bird's Eye View Motion Prediction with Cross-Modality
Signals [38.20643428486824]
密集した鳥の視線(BEV)の動きを自己監督的に学習することは、ロボット工学と自律運転の新たな研究である。
現在の自己監督法は主に点雲間の点対応に依存する。
マルチモダリティデータを活用することで,これらの問題に効果的に対処する,新たなクロスモダリティ自己教師型トレーニングフレームワークを導入する。
論文 参考訳(メタデータ) (2024-01-21T14:09:49Z) - Mono-STAR: Mono-camera Scene-level Tracking and Reconstruction [13.329040492332988]
我々は,意味融合,高速モーショントラッキング,非剛性物体の変形,トポロジ的変化を同時にサポートする最初のリアルタイム3次元再構成システムであるMono-STARを提案する。
論文 参考訳(メタデータ) (2023-01-30T19:17:03Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - Efficient Globally-Optimal Correspondence-Less Visual Odometry for
Planar Ground Vehicles [23.910735789004075]
我々は、平面に基づくアッカーマン運動推定に対して、最初の世界最適対応のない解を導入する。
我々は、その大域的最適性の性質を証明し、局所的に一定の回転中心を仮定する影響を分析する。
論文 参考訳(メタデータ) (2022-03-01T08:49:21Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - MotionHint: Self-Supervised Monocular Visual Odometry with Motion
Constraints [70.76761166614511]
モノクローナルビジュアル・オドメトリー(VO)のための新しい自己教師型アルゴリズムMotionHintを提案する。
我々のMotionHintアルゴリズムは、既存のオープンソースSSM-VOシステムに容易に適用できる。
論文 参考訳(メタデータ) (2021-09-14T15:35:08Z) - Vision-Based Guidance for Tracking Dynamic Objects [3.7590550630861443]
本稿では,レンデブース・コーン・アプローチに基づく誘導法則を用いて動的物体の追跡を行う視覚ベースのフレームワークを提案する。
これらの誘導法により、単眼カメラを備えた無人航空機システムは、センサーの視野内の移動物体を継続的に追従することができる。
論文 参考訳(メタデータ) (2021-04-19T13:45:56Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Learning Monocular Depth in Dynamic Scenes via Instance-Aware Projection
Consistency [114.02182755620784]
本稿では,複数の動的物体の6-DoF動作,エゴモーション,深度を,監督なしで一眼レフカメラで明示的にモデル化する,エンドツーエンドのジョイントトレーニングフレームワークを提案する。
筆者らのフレームワークは,最先端の深度・動き推定法より優れていた。
論文 参考訳(メタデータ) (2021-02-04T14:26:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。