論文の概要: OptiState: State Estimation of Legged Robots using Gated Networks with Transformer-based Vision and Kalman Filtering
- arxiv url: http://arxiv.org/abs/2401.16719v3
- Date: Sun, 28 Apr 2024 05:04:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 23:55:37.261395
- Title: OptiState: State Estimation of Legged Robots using Gated Networks with Transformer-based Vision and Kalman Filtering
- Title(参考訳): OptiState: Transformer-based Vision と Kalman Filtering を用いた手指ロボットの状態推定
- Authors: Alexander Schperberg, Yusuke Tanaka, Saviz Mowlavi, Feng Xu, Bharathan Balaji, Dennis Hong,
- Abstract要約: 脚のあるロボットの状態推定は、非常にダイナミックな動きとセンサーの精度による制限のために困難である。
本稿では,ロボットのトランクの状態を推定するために,プロピロセプションと外部受動的情報を組み合わせたハイブリッドソリューションを提案する。
このフレームワークは正確なロボットの状態推定を行うだけでなく、センサの測定や学習によるモデルの単純化から生じる非線形誤差を最小限に抑えることができる。
- 参考スコア(独自算出の注目度): 42.817893456964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State estimation for legged robots is challenging due to their highly dynamic motion and limitations imposed by sensor accuracy. By integrating Kalman filtering, optimization, and learning-based modalities, we propose a hybrid solution that combines proprioception and exteroceptive information for estimating the state of the robot's trunk. Leveraging joint encoder and IMU measurements, our Kalman filter is enhanced through a single-rigid body model that incorporates ground reaction force control outputs from convex Model Predictive Control optimization. The estimation is further refined through Gated Recurrent Units, which also considers semantic insights and robot height from a Vision Transformer autoencoder applied on depth images. This framework not only furnishes accurate robot state estimates, including uncertainty evaluations, but can minimize the nonlinear errors that arise from sensor measurements and model simplifications through learning. The proposed methodology is evaluated in hardware using a quadruped robot on various terrains, yielding a 65% improvement on the Root Mean Squared Error compared to our VIO SLAM baseline. Code example: https://github.com/AlexS28/OptiState
- Abstract(参考訳): 脚のあるロボットの状態推定は、非常にダイナミックな動きとセンサーの精度による制限のために困難である。
Kalmanフィルタ,最適化,学習に基づくモダリティを統合することにより,ロボットのトランクの状態を推定するための固有受容情報と外部受容情報を組み合わせたハイブリッドソリューションを提案する。
共振器エンコーダとIMU測定を応用し,コンベックスモデル予測制御の最適化による接地力制御出力を組み込んだ単一剛体モデルにより,カルマンフィルタを改良した。
この推定は、深度画像に適用された視覚変換器オートエンコーダから意味的な洞察とロボットの高さも考慮するGated Recurrent Unitsを通じてさらに洗練されている。
このフレームワークは、不確実性評価を含む正確なロボット状態推定を行うだけでなく、センサ測定や学習によるモデルの単純化から生じる非線形誤差を最小限にすることができる。
提案手法は,様々な地形で四足歩行ロボットを用いてハードウェア上で評価され,VO SLAMベースラインと比較してルート平均角誤差が65%向上した。
コード例:https://github.com/AlexS28/OptiState
関連論文リスト
- Multi-Robot Relative Pose Estimation in SE(2) with Observability
Analysis: A Comparison of Extended Kalman Filtering and Robust Pose Graph
Optimization [1.0485739694839669]
本研究では,相対的なポーズ推定の協調的局所化と可観測性分析に着目する。
ROS/Gazeboシミュレーションでは,4つのセンシング・通信構造について検討する。
ハードウェア実験では、UWBモジュールを備えた2つのTurtlebot3がロボット間の相対的なポーズ推定に使用される。
論文 参考訳(メタデータ) (2024-01-27T06:09:56Z) - Real-to-Sim: Predicting Residual Errors of Robotic Systems with Sparse
Data using a Learning-based Unscented Kalman Filter [65.93205328894608]
我々は,動的・シミュレータモデルと実ロボット間の残差を学習する。
学習した残差誤差により、動的モデル、シミュレーション、および実際のハードウェア間の現実的ギャップをさらに埋めることができることを示す。
論文 参考訳(メタデータ) (2022-09-07T15:15:12Z) - Visual-Inertial Odometry with Online Calibration of Velocity-Control
Based Kinematic Motion Models [3.42658286826597]
視覚慣性オドメトリー(VIO)は、パワーとペイロードの制約のある自律ロボットにとって重要な技術である。
本稿では,車輪付き移動ロボットの速度制御に基づく運動モデルの統合と校正を行うステレオカメラを用いたVIOの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-14T06:21:12Z) - Visual-tactile sensing for Real-time liquid Volume Estimation in
Grasping [58.50342759993186]
変形性容器内の液体をリアルタイムに推定するためのビジュオ触覚モデルを提案する。
我々は、RGBカメラからの生の視覚入力と、特定の触覚センサーからの触覚手がかりの2つの感覚モードを融合する。
ロボットシステムは、推定モデルに基づいて、リアルタイムで適切に制御され、調整される。
論文 参考訳(メタデータ) (2022-02-23T13:38:31Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Robot Localization and Navigation through Predictive Processing using
LiDAR [0.0]
本稿では,レーザーセンサを用いた位置認識とナビゲーションに応用した,予測処理にインスパイアされたアプローチの実証について述べる。
我々は自己教師型学習を通してレーザ生成モデルを学び、オンライン状態推定とナビゲーションの両方を行う。
その結果,オドメトリーの欠如による粒子フィルタとの比較では,状態推定性能が向上した。
論文 参考訳(メタデータ) (2021-09-09T09:58:00Z) - Online Body Schema Adaptation through Cost-Sensitive Active Learning [63.84207660737483]
この作業は、icubロボットシミュレータの7dofアームを使用して、シミュレーション環境で実行された。
コストに敏感な能動学習手法は最適な関節構成を選択するために用いられる。
その結果,コスト依存型能動学習は標準的な能動学習手法と同等の精度を示し,実行運動の約半分を減らした。
論文 参考訳(メタデータ) (2021-01-26T16:01:02Z) - Robots State Estimation and Observability Analysis Based on Statistical
Motion Models [10.941793802354953]
本稿では,移動ロボットの動特性(翻訳と回転)を捉える汎用動作モデルを提案する。
このモデルは白色ランダムプロセスによって駆動される統計モデルに基づいており、エラー状態拡張カルマンフィルタリングフレームワーク(ESEKF)に基づく完全な状態推定アルゴリズムに定式化されている。
システム状態の観測不能なサブセットを特徴付けるために、新しいtexttextbfitthin セットの概念が導入された。
論文 参考訳(メタデータ) (2020-10-12T18:35:33Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。