論文の概要: Pure Inertial Navigation in Challenging Environments with Wheeled and Chassis Mounted Inertial Sensors
- arxiv url: http://arxiv.org/abs/2601.00275v1
- Date: Thu, 01 Jan 2026 09:28:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.596996
- Title: Pure Inertial Navigation in Challenging Environments with Wheeled and Chassis Mounted Inertial Sensors
- Title(参考訳): 車輪付きおよびシャシー搭載慣性センサを用いた混在環境における純慣性航法
- Authors: Dusan Nemec, Gal Versano, Itai Savin, Vojtech Simak, Juraj Kekelak, Itzik Klein,
- Abstract要約: 車輪付き慣性航法システムWiCHINSを提案する。
それぞれ専用の拡張Kalmanフィルタを備えた3段階のフレームワークを導出する。
平均位置誤差は11.4mであり、平均走行距離の2.4%である。
- 参考スコア(独自算出の注目度): 3.956118462195485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous vehicles and wheeled robots are widely used in many applications in both indoor and outdoor settings. In practical situations with limited GNSS signals or degraded lighting conditions, the navigation solution may rely only on inertial sensors and as result drift in time due to errors in the inertial measurement. In this work, we propose WiCHINS, a wheeled and chassis inertial navigation system by combining wheel-mounted-inertial sensors with a chassis-mounted inertial sensor for accurate pure inertial navigation. To that end, we derive a three-stage framework, each with a dedicated extended Kalman filter. This framework utilizes the benefits of each location (wheel/body) during the estimation process. To evaluate our proposed approach, we employed a dataset with five inertial measurement units with a total recording time of 228.6 minutes. We compare our approach with four other inertial baselines and demonstrate an average position error of 11.4m, which is $2.4\%$ of the average traveled distance, using two wheels and one body inertial measurement units. As a consequence, our proposed method enables robust navigation in challenging environments and helps bridge the pure-inertial performance gap.
- Abstract(参考訳): 自律走行車や車輪付きロボットは、屋内と屋外の両方で多くの用途で広く利用されている。
GNSS信号や劣化した照明条件が限られている現実的な状況では、ナビゲーションソリューションは慣性センサーにのみ依存し、その結果慣性測定の誤差により時間的にドリフトする。
本研究では,車載慣性センサと車載慣性センサを組み合わせることで,車載慣性ナビゲーションシステムWiCHINSを提案する。
この目的のために、3段階のフレームワークを導出し、それぞれに専用拡張カルマンフィルタを組み込む。
このフレームワークは、推定過程における各位置(車輪/ボディ)の利点を利用する。
提案手法を評価するために,5つの慣性測定ユニットと合計記録時間228.6分間のデータセットを用いた。
提案手法を他の4つの慣性ベースラインと比較し,平均走行距離の2.4\%である11.4mの平均位置誤差を2つの車輪と1つの慣性測定ユニットを用いて示す。
その結果,本手法は難易度の高い環境におけるロバストナビゲーションを可能にし,純粋慣性性能のギャップを埋める助けとなる。
関連論文リスト
- A Hybrid Neural-Assisted Unscented Kalman Filter for Unmanned Ground Vehicle Navigation [5.5217350574838875]
本稿では,古典的状態推定基盤を現代的なディープラーニングアプローチでブリッジするハイブリッド推定フレームワークを提案する。
シミュレーションデータにのみトレーニングを施したsim2realアプローチを提案する。
適応モデルベースのアプローチと比較して、3つのデータセットで12.7%のポジション改善を実証する。
論文 参考訳(メタデータ) (2026-03-12T08:20:26Z) - WMINet: A Wheel-Mounted Inertial Learning Approach For Mobile-Robot Positioning [2.915868985330569]
我々はWMINETを車輪搭載型慣性深度学習手法として提案し,その慣性センサのみに基づいて移動ロボットの位置を推定する。
そこで本研究では,車載アプローチと移動ロボットの周期軌道駆動という,慣性ドリフトを減らすための2つの一般的な実践的手法をマージする。
我々のアプローチは最先端のアプローチよりも66%改善した。
論文 参考訳(メタデータ) (2025-03-17T10:43:46Z) - V2X-Radar: A Multi-modal Dataset with 4D Radar for Cooperative Perception [61.58737390490639]
V2X-Radarは、4Dレーダを特徴とする世界初の大規模実世界のマルチモーダルデータセットである。
データセットは20KのLiDARフレーム、40Kのカメライメージ、350Kの注釈付きボックスを含む20Kの4Dレーダデータで構成されている。
様々な研究領域をサポートするために, 協調認識のためのV2X-Radar-C, 路面認識のためのV2X-Radar-I, 単車知覚のためのV2X-Radar-Vを確立した。
論文 参考訳(メタデータ) (2024-11-17T04:59:00Z) - RoboSense: Large-scale Dataset and Benchmark for Egocentric Robot Perception and Navigation in Crowded and Unstructured Environments [62.5830455357187]
我々は3種類のセンサー(Camera, LiDAR, Fisheye)をベースとした自我中心型マルチセンサデータ収集プラットフォームを構築した。
大規模なマルチモーダルデータセットであるRoboSenseは、エゴセントリックなロボット知覚を促進するために構築されている。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - Learning Position From Vehicle Vibration Using an Inertial Measurement Unit [2.1213500139850012]
本稿では,グローバルナビゲーション衛星システム(GNSS)に依存しない車両位置決め手法を提案する。
従来のアプローチは特定の環境での干渉に弱いため、都市キャニオンやフライオーバーや低受信エリアなどの状況では信頼性が低い。
本研究では,慣性計測ユニット(IMU)センサで得られた加速度計およびジャイロスコープ測定から道路信号の学習に基づく車両位置決め手法を提案する。
論文 参考訳(メタデータ) (2023-03-06T18:55:00Z) - Vision in adverse weather: Augmentation using CycleGANs with various
object detectors for robust perception in autonomous racing [70.16043883381677]
自律レースでは、天気は突然変化し、認識が著しく低下し、非効率な操作が引き起こされる。
悪天候の検知を改善するために、ディープラーニングベースのモデルは通常、そのような状況下でキャプチャされた広範なデータセットを必要とする。
本稿では,5つの最先端検出器のうち4つの性能向上を図るために,自動レース(CycleGANを用いた)における合成悪条件データセットを用いた手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T10:02:40Z) - VILENS: Visual, Inertial, Lidar, and Leg Odometry for All-Terrain Legged Robots [5.789654849162465]
本報告では,足ロボットのための視覚的慣性ライダー脚ナビゲーションシステム(VILENS)について述べる。
重要な新規性は、信頼性の高い動作を実現するために、4つの異なるセンサーモードの密接な融合である。
最先端の疎結合アプローチと比較して, 平均62%の翻訳誤差と51%の回転誤差が改善した。
論文 参考訳(メタデータ) (2021-07-15T11:05:00Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。