論文の概要: Initialization of Monocular Visual Navigation for Autonomous Agents Using Modified Structure from Small Motion
- arxiv url: http://arxiv.org/abs/2409.16465v2
- Date: Mon, 7 Oct 2024 19:17:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 17:30:16.704750
- Title: Initialization of Monocular Visual Navigation for Autonomous Agents Using Modified Structure from Small Motion
- Title(参考訳): 微動の修正構造を用いた自律エージェントの単眼視覚ナビゲーションの初期化
- Authors: Juan-Diego Florez, Mehregan Dor, Panagiotis Tsiotras,
- Abstract要約: 本稿では,自律型宇宙ロボットのためのスタンドアロンの単眼視覚的同時局在マッピング(vSLAM)パイプラインを提案する。
提案手法は, 宇宙船の点検軌道における単分子エージェントを頑健に初期化するために, 構造を小型運動から拡張する。
本手法の有効性を実証し,本手法の有効性を検証した。
- 参考スコア(独自算出の注目度): 13.69678622755871
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a standalone monocular visual Simultaneous Localization and Mapping (vSLAM) initialization pipeline for autonomous space robots. Our method, a state-of-the-art factor graph optimization pipeline, extends Structure from Small Motion (SfSM) to robustly initialize a monocular agent in spacecraft inspection trajectories, addressing visual estimation challenges such as weak-perspective projection and center-pointing motion, which exacerbates the bas-relief ambiguity, dominant planar geometry, which causes motion estimation degeneracies in classical Structure from Motion, and dynamic illumination conditions, which reduce the survivability of visual information. We validate our approach on realistic, simulated satellite inspection image sequences with a tumbling spacecraft and demonstrate the method's effectiveness over existing monocular initialization procedures.
- Abstract(参考訳): 本稿では,自律型宇宙ロボットのためのスタンドアロンの単眼視覚的同時局所マッピング(vSLAM)の初期化パイプラインを提案する。
現状の因子グラフ最適化パイプラインであるStructure from Small Motion (SfSM) を拡張して、宇宙船の点検軌道における単分子エージェントを堅牢に初期化し、バスト・レリーフのあいまいさ、支配的な平面幾何学を悪化させる弱視射影や中心点運動などの視覚的推定課題に対処し、視覚情報の生存性を低下させる動的照明条件を実現する。
タンブリング宇宙船を用いた実測衛星検査画像系列の現実的評価を行い,既存の単分子初期化法に対する手法の有効性を実証した。
関連論文リスト
- Simultaneous Map and Object Reconstruction [66.66729715211642]
本稿では,LiDARから大規模都市景観を動的に再現する手法を提案する。
我々は、最近の新しいビュー合成法から着想を得て、大域的な最適化として再構築問題を提起する。
連続動作の慎重なモデリングにより, 回転するLiDARセンサの回転シャッター効果を補うことができる。
論文 参考訳(メタデータ) (2024-06-19T23:53:31Z) - Self-Supervised Bird's Eye View Motion Prediction with Cross-Modality
Signals [38.20643428486824]
密集した鳥の視線(BEV)の動きを自己監督的に学習することは、ロボット工学と自律運転の新たな研究である。
現在の自己監督法は主に点雲間の点対応に依存する。
マルチモダリティデータを活用することで,これらの問題に効果的に対処する,新たなクロスモダリティ自己教師型トレーニングフレームワークを導入する。
論文 参考訳(メタデータ) (2024-01-21T14:09:49Z) - Mono-STAR: Mono-camera Scene-level Tracking and Reconstruction [13.329040492332988]
我々は,意味融合,高速モーショントラッキング,非剛性物体の変形,トポロジ的変化を同時にサポートする最初のリアルタイム3次元再構成システムであるMono-STARを提案する。
論文 参考訳(メタデータ) (2023-01-30T19:17:03Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - Efficient Globally-Optimal Correspondence-Less Visual Odometry for
Planar Ground Vehicles [23.910735789004075]
我々は、平面に基づくアッカーマン運動推定に対して、最初の世界最適対応のない解を導入する。
我々は、その大域的最適性の性質を証明し、局所的に一定の回転中心を仮定する影響を分析する。
論文 参考訳(メタデータ) (2022-03-01T08:49:21Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - MotionHint: Self-Supervised Monocular Visual Odometry with Motion
Constraints [70.76761166614511]
モノクローナルビジュアル・オドメトリー(VO)のための新しい自己教師型アルゴリズムMotionHintを提案する。
我々のMotionHintアルゴリズムは、既存のオープンソースSSM-VOシステムに容易に適用できる。
論文 参考訳(メタデータ) (2021-09-14T15:35:08Z) - Vision-Based Guidance for Tracking Dynamic Objects [3.7590550630861443]
本稿では,レンデブース・コーン・アプローチに基づく誘導法則を用いて動的物体の追跡を行う視覚ベースのフレームワークを提案する。
これらの誘導法により、単眼カメラを備えた無人航空機システムは、センサーの視野内の移動物体を継続的に追従することができる。
論文 参考訳(メタデータ) (2021-04-19T13:45:56Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Learning Monocular Depth in Dynamic Scenes via Instance-Aware Projection
Consistency [114.02182755620784]
本稿では,複数の動的物体の6-DoF動作,エゴモーション,深度を,監督なしで一眼レフカメラで明示的にモデル化する,エンドツーエンドのジョイントトレーニングフレームワークを提案する。
筆者らのフレームワークは,最先端の深度・動き推定法より優れていた。
論文 参考訳(メタデータ) (2021-02-04T14:26:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。