論文の概要: VILENS: Visual, Inertial, Lidar, and Leg Odometry for All-Terrain Legged
Robots
- arxiv url: http://arxiv.org/abs/2107.07243v1
- Date: Thu, 15 Jul 2021 11:05:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-16 13:51:55.741428
- Title: VILENS: Visual, Inertial, Lidar, and Leg Odometry for All-Terrain Legged
Robots
- Title(参考訳): VILENS:オールテランの足ロボットのための視覚、慣性、ライダー、脚のオドメトリー
- Authors: David Wisth, Marco Camurri, Maurice Fallon
- Abstract要約: 本稿では,因子グラフに基づく脚型ロボットのオドメトリーシステムであるVILENSを提案する。
重要な新規性は、信頼性の高い動作を実現するために、4つの異なるセンサーモードの密接な融合である。
最先端の疎結合アプローチと比較して, 平均62%の翻訳誤差と51%の回転誤差が改善した。
- 参考スコア(独自算出の注目度): 3.867363075280544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present VILENS (Visual Inertial Lidar Legged Navigation System), an
odometry system for legged robots based on factor graphs. The key novelty is
the tight fusion of four different sensor modalities to achieve reliable
operation when the individual sensors would otherwise produce degenerate
estimation. To minimize leg odometry drift, we extend the robot's state with a
linear velocity bias term which is estimated online. This bias is only
observable because of the tight fusion of this preintegrated velocity factor
with vision, lidar, and IMU factors. Extensive experimental validation on the
ANYmal quadruped robots is presented, for a total duration of 2 h and 1.8 km
traveled. The experiments involved dynamic locomotion over loose rocks, slopes,
and mud; these included perceptual challenges, such as dark and dusty
underground caverns or open, feature-deprived areas, as well as mobility
challenges such as slipping and terrain deformation. We show an average
improvement of 62% translational and 51% rotational errors compared to a
state-of-the-art loosely coupled approach. To demonstrate its robustness,
VILENS was also integrated with a perceptive controller and a local path
planner.
- Abstract(参考訳): 本稿では,因子グラフに基づく脚ロボット用オドメトリシステムである vilens (visual inertial lidar legged navigation system) を提案する。
重要な新機能は、4つの異なるセンサーモードの密接な融合で、個々のセンサーが縮退推定を生成するとき、信頼性の高い動作を実現することである。
脚のドリフトを最小限に抑えるため,オンラインで推定される線形速度バイアス項でロボットの状態を拡張する。
このバイアスは、視力、ライダー、IMU因子と事前積分された速度係数が密接な融合によってのみ観測可能である。
ANYmal四足歩行ロボットの大規模な実験検証を行い、総走行時間は2時間1.8kmである。
実験では、緩い岩、斜面、泥の上を動的に移動し、暗くほこりだらけの地下洞穴や、開き放たれた特徴が欠落した地域などの知覚的課題や、すべりや変形などの移動性課題が含まれていた。
最先端の疎結合アプローチと比較して, 平均62%の翻訳誤差と51%の回転誤差が改善した。
その堅牢性を示すため、VILENSはパーセプティブコントローラとローカルパスプランナーとも統合された。
関連論文リスト
- Hybrid Internal Model: Learning Agile Legged Locomotion with Simulated
Robot Response [25.52492911765911]
ロボットの応答に応じて外部状態を推定するためにハイブリッド内部モデルを導入する。
この応答は、ハイブリッドな内部埋め込みと呼ばれ、ロボットの明示的な速度と暗黙的な安定性の表現を含んでいる。
実世界の多くの実験が、トレーニングプロセス中に一度も起こらなかった、高度に分散したタスクやケースにおいても、その俊敏性を示している。
論文 参考訳(メタデータ) (2023-12-18T18:59:06Z) - Tightly-coupled Visual-DVL-Inertial Odometry for Robot-based Ice-water
Boundary Exploration [8.555466536537292]
ローカライズ精度を高めるために,マルチセンサ融合フレームワークを提案する。
画像、ドップラー速度ログ(DVL)、慣性測定ユニット(IMU)、圧力センサーが統合されている。
提案手法は,凍結氷下のフィールドで収集したデータセットを用いて検証した。
論文 参考訳(メタデータ) (2023-03-29T20:16:39Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Inertial Hallucinations -- When Wearable Inertial Devices Start Seeing
Things [82.15959827765325]
環境支援型生活(AAL)のためのマルチモーダルセンサフュージョンの新しいアプローチを提案する。
我々は、標準マルチモーダルアプローチの2つの大きな欠点、限られた範囲のカバレッジ、信頼性の低下に対処する。
我々の新しいフレームワークは、三重項学習によるモダリティ幻覚の概念を融合させ、異なるモダリティを持つモデルを訓練し、推論時に欠落したセンサーに対処する。
論文 参考訳(メタデータ) (2022-07-14T10:04:18Z) - VAE-Loco: Versatile Quadruped Locomotion by Learning a Disentangled Gait
Representation [78.92147339883137]
本研究では,特定の歩行を構成する主要姿勢位相を捕捉する潜在空間を学習することにより,制御器のロバスト性を高めることが重要であることを示す。
本研究では,ドライブ信号マップの特定の特性が,歩幅,歩幅,立位などの歩行パラメータに直接関係していることを示す。
生成モデルを使用することで、障害の検出と緩和が容易になり、汎用的で堅牢な計画フレームワークを提供する。
論文 参考訳(メタデータ) (2022-05-02T19:49:53Z) - Visual-tactile sensing for Real-time liquid Volume Estimation in
Grasping [58.50342759993186]
変形性容器内の液体をリアルタイムに推定するためのビジュオ触覚モデルを提案する。
我々は、RGBカメラからの生の視覚入力と、特定の触覚センサーからの触覚手がかりの2つの感覚モードを融合する。
ロボットシステムは、推定モデルに基づいて、リアルタイムで適切に制御され、調整される。
論文 参考訳(メタデータ) (2022-02-23T13:38:31Z) - Vision in adverse weather: Augmentation using CycleGANs with various
object detectors for robust perception in autonomous racing [70.16043883381677]
自律レースでは、天気は突然変化し、認識が著しく低下し、非効率な操作が引き起こされる。
悪天候の検知を改善するために、ディープラーニングベースのモデルは通常、そのような状況下でキャプチャされた広範なデータセットを必要とする。
本稿では,5つの最先端検出器のうち4つの性能向上を図るために,自動レース(CycleGANを用いた)における合成悪条件データセットを用いた手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T10:02:40Z) - Unified Multi-Modal Landmark Tracking for Tightly Coupled
Lidar-Visual-Inertial Odometry [5.131684964386192]
視覚,ライダー,慣性情報を協調的に最適化するモバイルプラットフォームのための効率的なマルチセンサ・オドメトリーシステムを提案する。
ライダー点雲から3次元線と平面原始体を抽出する新しい手法を提案する。
システムは、脚のあるロボットによる地下探査や、動的に動くハンドヘルドデバイスによる屋外スキャンなど、さまざまなプラットフォームやシナリオでテストされてきた。
論文 参考訳(メタデータ) (2020-11-13T09:54:03Z) - PRGFlow: Benchmarking SWAP-Aware Unified Deep Visual Inertial Odometry [14.077054191270213]
視覚的翻訳推定のための深層学習手法を提案し、6DoF odometry 推定のための慣性センサでゆるやかに融合する。
我々は,MSCOCOデータセット上でネットワークを評価し,複数の実飛行軌道上でのVI融合を評価する。
論文 参考訳(メタデータ) (2020-06-11T19:12:54Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z) - mmFall: Fall Detection using 4D MmWave Radar and a Hybrid Variational
RNN AutoEncoder [0.4588028371034407]
mmFallは、人体の点雲と体中心波を収集する、新興ミリ波(mmWave)レーダーセンサーである。
異常レベルのスパイクとセントロイド高さの低下が同時に起こると、転倒が起こったと主張されている。
レーダデータのランダム性を克服するために、提案されたVRAEは、従来の決定論的アプローチではなく、確率論的アプローチである変分推論を使用する。
論文 参考訳(メタデータ) (2020-03-05T00:37:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。