論文の概要: Distributed and Consistent Multi-Robot Visual-Inertial-Ranging Odometry on Lie Groups
- arxiv url: http://arxiv.org/abs/2602.19173v1
- Date: Sun, 22 Feb 2026 13:07:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.62975
- Title: Distributed and Consistent Multi-Robot Visual-Inertial-Ranging Odometry on Lie Groups
- Title(参考訳): リー群上の分散かつ一貫性のあるマルチロボットビジュアル・慣性言語オドメトリー
- Authors: Ziwei Kang, Yizhi Zhou,
- Abstract要約: 本稿では、複数のロボット間でVIOとUWBの測定を密に融合させる分散視覚慣性測度(DC-VIRO)フレームワークを提案する。
リー群上の右不変誤差定式化を利用して、提案手法は標準VIOの可観測性を保存する。
- 参考スコア(独自算出の注目度): 1.2247984232203188
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Reliable localization is a fundamental requirement for multi-robot systems operating in GPS-denied environments. Visual-inertial odometry (VIO) provides lightweight and accurate motion estimation but suffers from cumulative drift in the absence of global references. Ultra-wideband (UWB) ranging offers complementary global observations, yet most existing UWB-aided VIO methods are designed for single-robot scenarios and rely on pre-calibrated anchors, which limits their robustness in practice. This paper proposes a distributed collaborative visual-inertial-ranging odometry (DC-VIRO) framework that tightly fuses VIO and UWB measurements across multiple robots. Anchor positions are explicitly included in the system state to address calibration uncertainty, while shared anchor observations are exploited through inter-robot communication to provide additional geometric constraints. By leveraging a right-invariant error formulation on Lie groups, the proposed approach preserves the observability properties of standard VIO, ensuring estimator consistency. Simulation results with multiple robots demonstrate that DC-VIRO significantly improves localization accuracy and robustness, while simultaneously enabling anchor self-calibration in distributed settings.
- Abstract(参考訳): 信頼性の高いローカライゼーションは,GPSを用いたマルチロボットシステムの基本要件である。
視覚慣性眼振計(VIO)は、軽量で正確な動き推定を提供するが、グローバル参照がない場合は累積ドリフトに悩まされる。
ウルトラワイドバンド(UWB)は、補完的なグローバルな観測を提供するが、既存のUWB支援型のVIO法は、シングルロボットのシナリオ用に設計されており、実際のロバスト性を制限している。
本稿では、複数のロボット間でVIOとUWBの測定を密に融合させる分散協調型視覚慣性測度(DC-VIRO)フレームワークを提案する。
アンカー位置は、キャリブレーションの不確実性に対処するためにシステム状態に明示的に含まれ、一方、共有アンカー観測はロボット間通信により、追加の幾何学的制約を提供する。
リー群上の右不変誤差定式化を活用することにより、提案手法は標準VIOの可観測性を維持し、推定器の整合性を保証する。
複数のロボットによるシミュレーションの結果、DC-VIROは、分散環境でのアンカー自己校正を同時に可能とし、ローカライズ精度とロバスト性を大幅に向上することを示した。
関連論文リスト
- Decentralized Cooperative Localization for Multi-Robot Systems with Asynchronous Sensor Fusion [0.4316181399175028]
分散協調型ローカライゼーションは,GPSを用いた環境下で動作する非ホロノミック移動ロボットにとって有望なアプローチである。
本稿では,拡張カルマンフィルタを用いて,各ロボットが局所的なローカライズを行うフレームワークを提案する。
また、静的環境特徴と移動ロボットの両方を動的ランドマークとして活用するデュアルランドマーク評価フレームワークを導入する。
論文 参考訳(メタデータ) (2026-03-12T15:42:59Z) - ReHARK: Refined Hybrid Adaptive RBF Kernels for Robust One-Shot Vision-Language Adaptation [3.8707695363745214]
ReHARKは、グローバルな近位正規化を通じて、少数ショット適応を再解釈する、トレーニング不要のフレームワークである。
ワンショット適応のための新しい最先端技術がReHARKによって確立され、平均精度は65.83%である。
論文 参考訳(メタデータ) (2026-03-12T04:59:09Z) - IoUCert: Robustness Verification for Anchor-based Object Detectors [58.35703549470485]
IoUCertは、アンカーベースのオブジェクト検出アーキテクチャにおいて、これらのボトルネックを克服するために設計された、新しい形式的検証フレームワークである。
本手法は, SSD, YOLOv2, YOLOv3など, 現実的なアンカーベースモデルの各種入力摂動に対するロバスト性検証を可能にする。
論文 参考訳(メタデータ) (2026-03-03T14:36:46Z) - Holistic Fusion: Task- and Setup-Agnostic Robot Localization and State Estimation with Factor Graphs [19.359422457413576]
この研究は、タスクとセットアップに依存しないマルチモーダルセンサー融合のための柔軟なオープンソースソリューションを導入している。
ホロスティックフュージョン (HF) は, 局所的および大域的ロボット状態と, 動的文脈変数の(理論的に無制限な)数との組合せとして, センサフュージョンを定式化する。
HFは、一般的なロボットハードウェア上で低レイテンシかつスムーズなオンライン状態推定を可能にし、同時にIMU測定速度で低ドリフトグローバルなローカライゼーションを提供する。
論文 参考訳(メタデータ) (2025-04-08T22:54:52Z) - Robust Collaborative Perception without External Localization and Clock Devices [52.32342059286222]
複数のエージェントをまたいだ一貫した空間的時間的調整は、協調的な知覚の基礎である。
従来の手法は、ローカライゼーションとクロック信号を提供するために外部デバイスに依存している。
本稿では,様々なエージェントの知覚データに内在する幾何学的パターンを認識して整列する手法を提案する。
論文 参考訳(メタデータ) (2024-05-05T15:20:36Z) - Multi-Robot Relative Pose Estimation in SE(2) with Observability
Analysis: A Comparison of Extended Kalman Filtering and Robust Pose Graph
Optimization [1.0485739694839669]
本研究では,相対的なポーズ推定の協調的局所化と可観測性分析に着目する。
ROS/Gazeboシミュレーションでは,4つのセンシング・通信構造について検討する。
ハードウェア実験では、UWBモジュールを備えた2つのTurtlebot3がロボット間の相対的なポーズ推定に使用される。
論文 参考訳(メタデータ) (2024-01-27T06:09:56Z) - Multi-Visual-Inertial System: Analysis, Calibration and Estimation [26.658649118048032]
マルチビジュアル・慣性システム(MVIS)の状態を推定し,センサ融合アルゴリズムを開発した。
我々は、関連する視覚慣性センサーの完全な校正に興味を持っている。
論文 参考訳(メタデータ) (2023-08-10T02:47:36Z) - Distributed Visual-Inertial Cooperative Localization [32.49338004445954]
マルチロボット協調ローカリゼーション(CL)のための一貫性のある分散状態推定器を提案する。
特に、共分散交叉(CI)を活用して、各ロボットが自身の状態と自己共分散だけを追跡できるようにする。
提案した分散CL推定器は,シミュレーションと実世界の実験の両方において,非実時間集中型に対して有効である。
論文 参考訳(メタデータ) (2021-03-23T18:12:07Z) - Unsupervised Domain Adaptation in Person re-ID via k-Reciprocal
Clustering and Large-Scale Heterogeneous Environment Synthesis [76.46004354572956]
個人再識別のための教師なし領域適応手法を提案する。
実験結果から,ktCUDA法とSHRED法は,再同定性能において,+5.7 mAPの平均的改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-01-14T17:43:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。