論文の概要: Enhancing Feature Tracking Reliability for Visual Navigation using Real-Time Safety Filter
- arxiv url: http://arxiv.org/abs/2502.01092v1
- Date: Mon, 03 Feb 2025 06:26:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:53:09.259082
- Title: Enhancing Feature Tracking Reliability for Visual Navigation using Real-Time Safety Filter
- Title(参考訳): リアルタイム安全フィルタを用いた視覚ナビゲーションにおける特徴追跡信頼性の向上
- Authors: Dabin Kim, Inkyu Jang, Youngsoo Han, Sunwoo Hwang, H. Jin Kim,
- Abstract要約: 視覚センサーはロボットのポーズのローカライズに広く使われている。
信頼できる機能追跡と正確なポーズ推定のためには、十分な数の機能の可視性を維持することが不可欠である。
本稿では,2次プログラミングに基づくリアルタイム安全フィルタを提案する。
- 参考スコア(独自算出の注目度): 23.90865158642276
- License:
- Abstract: Vision sensors are extensively used for localizing a robot's pose, particularly in environments where global localization tools such as GPS or motion capture systems are unavailable. In many visual navigation systems, localization is achieved by detecting and tracking visual features or landmarks, which provide information about the sensor's relative pose. For reliable feature tracking and accurate pose estimation, it is crucial to maintain visibility of a sufficient number of features. This requirement can sometimes conflict with the robot's overall task objective. In this paper, we approach it as a constrained control problem. By leveraging the invariance properties of visibility constraints within the robot's kinematic model, we propose a real-time safety filter based on quadratic programming. This filter takes a reference velocity command as input and produces a modified velocity that minimally deviates from the reference while ensuring the information score from the currently visible features remains above a user-specified threshold. Numerical simulations demonstrate that the proposed safety filter preserves the invariance condition and ensures the visibility of more features than the required minimum. We also validated its real-world performance by integrating it into a visual simultaneous localization and mapping (SLAM) algorithm, where it maintained high estimation quality in challenging environments, outperforming a simple tracking controller.
- Abstract(参考訳): 視覚センサーは、特にGPSやモーションキャプチャシステムのようなグローバルなローカライゼーションツールが利用できない環境で、ロボットのポーズのローカライズに広く利用されている。
多くの視覚ナビゲーションシステムでは、センサーの相対的なポーズに関する情報を提供する視覚的特徴やランドマークを検出し、追跡することで、ローカライゼーションが達成されている。
信頼できる機能追跡と正確なポーズ推定のためには、十分な数の機能の可視性を維持することが不可欠である。
この要件は、時にロボットの全体的なタスク目標と矛盾することがある。
本稿では,制約付き制御問題としてアプローチする。
ロボットの運動モデルにおける可視性制約の不変性を利用して、2次プログラミングに基づくリアルタイム安全フィルタを提案する。
本フィルタは、基準速度コマンドを入力として、基準から最小限逸脱する修正速度を生成するとともに、現在目に見える特徴からの情報スコアが、ユーザが指定した閾値を超えることを保証する。
数値シミュレーションにより,提案した安全フィルタは不変条件を保ち,必要最小値よりも多くの特徴の可視性を確保できることを示した。
また,視覚的同時ローカライゼーションとマッピング(SLAM)アルゴリズムに組み込んで実世界の性能を検証した。
関連論文リスト
- Benchmarking Vision-Based Object Tracking for USVs in Complex Maritime Environments [0.8796261172196743]
視覚に基づく目標追跡は無人表面車両にとって不可欠である。
海上環境におけるリアルタイムトラッキングは、動的なカメラの動き、視界の低さ、スケールの変動によって困難である。
本研究では,USVのための視覚誘導型物体追跡フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-10T10:35:17Z) - Code-as-Monitor: Constraint-aware Visual Programming for Reactive and Proactive Robotic Failure Detection [56.66677293607114]
オープンセットのリアクティブかつアクティブな障害検出のためのCode-as-Monitor(CaM)を提案する。
モニタリングの精度と効率を高めるために,制約関連エンティティを抽象化する制約要素を導入する。
実験により、CaMは28.7%高い成功率を達成し、厳しい乱れの下で実行時間を31.8%短縮することが示された。
論文 参考訳(メタデータ) (2024-12-05T18:58:27Z) - Event-Based Tracking Any Point with Motion-Augmented Temporal Consistency [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
出来事の空間的空間性や動きの感度によって引き起こされる課題に対処する。
競合モデルパラメータによる処理を150%高速化する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - Deep Learning-Based Robust Multi-Object Tracking via Fusion of mmWave Radar and Camera Sensors [6.166992288822812]
複雑なトラフィックシナリオを通じて、より安全で効率的なナビゲーションを実現する上で、マルチオブジェクトトラッキングは重要な役割を果たす。
本稿では,自律走行システムにおける複数物体追跡の精度とロバスト性を高めるために,レーダデータとカメラデータを統合した新しいディープラーニング方式を提案する。
論文 参考訳(メタデータ) (2024-07-10T21:09:09Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Detection of Micromobility Vehicles in Urban Traffic Videos [7.5867752610196915]
本研究では、単一フレームオブジェクト検出の精度と速度と、オブジェクト検出フレームワークが提供するよりリッチな機能を組み合わせた、適応型検出モデルを導入する。
この融合は、YOLOX検出能力に時間的視点をもたらし、都市移動パターンをよりよく理解することができる。
都市マイクロモビリティのシナリオをキュレートしたデータセットを用いて実験し、既存の最先端手法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2024-02-28T17:31:39Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - TimePillars: Temporally-Recurrent 3D LiDAR Object Detection [8.955064958311517]
TimePillarsは時間的にリカレントなオブジェクト検出パイプラインである。
時間にわたってLiDARデータの柱表現を利用する。
基礎的なビルディングブロックがいかに堅牢で効率的な結果を得るのに十分なかを示す。
論文 参考訳(メタデータ) (2023-12-22T10:25:27Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Vision-Based Autonomous Navigation for Unmanned Surface Vessel in
Extreme Marine Conditions [2.8983738640808645]
本稿では,極端海洋環境下での目標物追跡のための自律的視覚に基づくナビゲーション・フレームワークを提案する。
提案手法は砂嵐や霧による可視性低下下でのシミュレーションで徹底的に検証されている。
結果は、ベンチマークしたMBZIRCシミュレーションデータセット全体にわたる最先端のデハージング手法と比較される。
論文 参考訳(メタデータ) (2023-08-08T14:25:13Z) - Benchmarking high-fidelity pedestrian tracking systems for research,
real-time monitoring and crowd control [55.41644538483948]
実生活環境における高忠実な歩行者追跡は,群集動態研究において重要なツールである。
この技術が進歩するにつれて、社会においても益々有用になってきている。
歩行者追跡技術の研究と技術に成功させるためには、正確さの検証とベンチマークが不可欠である。
我々は、プライバシーに配慮した歩行者追跡技術のためのベンチマークスイートをコミュニティのオープンスタンダードに向けて提示し、議論する。
論文 参考訳(メタデータ) (2021-08-26T11:45:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。