論文の概要: VILENS: Visual, Inertial, Lidar, and Leg Odometry for All-Terrain Legged Robots
- arxiv url: http://arxiv.org/abs/2107.07243v3
- Date: Mon, 07 Oct 2024 11:27:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-08 13:10:30.895464
- Title: VILENS: Visual, Inertial, Lidar, and Leg Odometry for All-Terrain Legged Robots
- Title(参考訳): VILENS:オールテランの足ロボットのための視覚、慣性、ライダー、脚のオドメトリー
- Authors: David Wisth, Marco Camurri, Maurice Fallon,
- Abstract要約: 本報告では,足ロボットのための視覚的慣性ライダー脚ナビゲーションシステム(VILENS)について述べる。
重要な新規性は、信頼性の高い動作を実現するために、4つの異なるセンサーモードの密接な融合である。
最先端の疎結合アプローチと比較して, 平均62%の翻訳誤差と51%の回転誤差が改善した。
- 参考スコア(独自算出の注目度): 5.789654849162465
- License:
- Abstract: We present visual inertial lidar legged navigation system (VILENS), an odometry system for legged robots based on factor graphs. The key novelty is the tight fusion of four different sensor modalities to achieve reliable operation when the individual sensors would otherwise produce degenerate estimation. To minimize leg odometry drift, we extend the robot's state with a linear velocity bias term, which is estimated online. This bias is observable because of the tight fusion of this preintegrated velocity factor with vision, lidar, and inertial measurement unit (IMU) factors. Extensive experimental validation on different ANYmal quadruped robots is presented, for a total duration of 2 h and 1.8 km traveled. The experiments involved dynamic locomotion over loose rocks, slopes, and mud, which caused challenges such as slippage and terrain deformation. Perceptual challenges included dark and dusty underground caverns, and open and feature-deprived areas. We show an average improvement of 62% translational and 51% rotational errors compared to a state-of-the-art loosely coupled approach. To demonstrate its robustness, VILENS was also integrated with a perceptive controller and a local path planner.
- Abstract(参考訳): 本稿では,視覚的慣性ライダー脚ナビゲーションシステム (VILENS) について述べる。
キーとなる新規性は、4つの異なるセンサーモードの密接な融合であり、個々のセンサーがそれ以外は縮退推定を発生させるような信頼性の高い操作を実現することである。
脚のドリフトを最小限に抑えるため、オンラインで推定される線形速度バイアス項でロボットの状態を拡張する。
このバイアスは、前積分速度係数と視覚、ライダー、慣性測定ユニット(IMU)との密接な融合のため観測可能である。
異なるANYmal四足歩行ロボットに対する大規模な実験検証を行い、総走行時間は2時間1.8kmである。
実験では、緩い岩、斜面、泥の上を動的に移動し、すべりや地形の変形といった問題を引き起こした。
知覚上の課題は、暗くほこりだらけの地下洞窟と、開放的で特徴の無い地域であった。
最先端の疎結合アプローチと比較して, 平均62%の翻訳誤差と51%の回転誤差が改善した。
その堅牢性を示すため、VILENSはパーセプティブコントローラとローカルパスプランナーとも統合された。
関連論文リスト
- Hybrid Internal Model: Learning Agile Legged Locomotion with Simulated
Robot Response [25.52492911765911]
ロボットの応答に応じて外部状態を推定するためにハイブリッド内部モデルを導入する。
この応答は、ハイブリッドな内部埋め込みと呼ばれ、ロボットの明示的な速度と暗黙的な安定性の表現を含んでいる。
実世界の多くの実験が、トレーニングプロセス中に一度も起こらなかった、高度に分散したタスクやケースにおいても、その俊敏性を示している。
論文 参考訳(メタデータ) (2023-12-18T18:59:06Z) - Tightly-coupled Visual-DVL-Inertial Odometry for Robot-based Ice-water
Boundary Exploration [8.555466536537292]
ローカライズ精度を高めるために,マルチセンサ融合フレームワークを提案する。
画像、ドップラー速度ログ(DVL)、慣性測定ユニット(IMU)、圧力センサーが統合されている。
提案手法は,凍結氷下のフィールドで収集したデータセットを用いて検証した。
論文 参考訳(メタデータ) (2023-03-29T20:16:39Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Inertial Hallucinations -- When Wearable Inertial Devices Start Seeing
Things [82.15959827765325]
環境支援型生活(AAL)のためのマルチモーダルセンサフュージョンの新しいアプローチを提案する。
我々は、標準マルチモーダルアプローチの2つの大きな欠点、限られた範囲のカバレッジ、信頼性の低下に対処する。
我々の新しいフレームワークは、三重項学習によるモダリティ幻覚の概念を融合させ、異なるモダリティを持つモデルを訓練し、推論時に欠落したセンサーに対処する。
論文 参考訳(メタデータ) (2022-07-14T10:04:18Z) - VAE-Loco: Versatile Quadruped Locomotion by Learning a Disentangled Gait
Representation [78.92147339883137]
本研究では,特定の歩行を構成する主要姿勢位相を捕捉する潜在空間を学習することにより,制御器のロバスト性を高めることが重要であることを示す。
本研究では,ドライブ信号マップの特定の特性が,歩幅,歩幅,立位などの歩行パラメータに直接関係していることを示す。
生成モデルを使用することで、障害の検出と緩和が容易になり、汎用的で堅牢な計画フレームワークを提供する。
論文 参考訳(メタデータ) (2022-05-02T19:49:53Z) - Visual-tactile sensing for Real-time liquid Volume Estimation in
Grasping [58.50342759993186]
変形性容器内の液体をリアルタイムに推定するためのビジュオ触覚モデルを提案する。
我々は、RGBカメラからの生の視覚入力と、特定の触覚センサーからの触覚手がかりの2つの感覚モードを融合する。
ロボットシステムは、推定モデルに基づいて、リアルタイムで適切に制御され、調整される。
論文 参考訳(メタデータ) (2022-02-23T13:38:31Z) - Vision in adverse weather: Augmentation using CycleGANs with various
object detectors for robust perception in autonomous racing [70.16043883381677]
自律レースでは、天気は突然変化し、認識が著しく低下し、非効率な操作が引き起こされる。
悪天候の検知を改善するために、ディープラーニングベースのモデルは通常、そのような状況下でキャプチャされた広範なデータセットを必要とする。
本稿では,5つの最先端検出器のうち4つの性能向上を図るために,自動レース(CycleGANを用いた)における合成悪条件データセットを用いた手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T10:02:40Z) - Unified Multi-Modal Landmark Tracking for Tightly Coupled
Lidar-Visual-Inertial Odometry [5.131684964386192]
視覚,ライダー,慣性情報を協調的に最適化するモバイルプラットフォームのための効率的なマルチセンサ・オドメトリーシステムを提案する。
ライダー点雲から3次元線と平面原始体を抽出する新しい手法を提案する。
システムは、脚のあるロボットによる地下探査や、動的に動くハンドヘルドデバイスによる屋外スキャンなど、さまざまなプラットフォームやシナリオでテストされてきた。
論文 参考訳(メタデータ) (2020-11-13T09:54:03Z) - PRGFlow: Benchmarking SWAP-Aware Unified Deep Visual Inertial Odometry [14.077054191270213]
視覚的翻訳推定のための深層学習手法を提案し、6DoF odometry 推定のための慣性センサでゆるやかに融合する。
我々は,MSCOCOデータセット上でネットワークを評価し,複数の実飛行軌道上でのVI融合を評価する。
論文 参考訳(メタデータ) (2020-06-11T19:12:54Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z) - mmFall: Fall Detection using 4D MmWave Radar and a Hybrid Variational
RNN AutoEncoder [0.4588028371034407]
mmFallは、人体の点雲と体中心波を収集する、新興ミリ波(mmWave)レーダーセンサーである。
異常レベルのスパイクとセントロイド高さの低下が同時に起こると、転倒が起こったと主張されている。
レーダデータのランダム性を克服するために、提案されたVRAEは、従来の決定論的アプローチではなく、確率論的アプローチである変分推論を使用する。
論文 参考訳(メタデータ) (2020-03-05T00:37:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。