論文の概要: OptiState: State Estimation of Legged Robots using Gated Networks with
Transformer-based Vision and Kalman Filtering
- arxiv url: http://arxiv.org/abs/2401.16719v1
- Date: Tue, 30 Jan 2024 03:34:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 16:19:56.829142
- Title: OptiState: State Estimation of Legged Robots using Gated Networks with
Transformer-based Vision and Kalman Filtering
- Title(参考訳): OptiState: Transformer-based Vision と Kalman Filtering を用いた手指ロボットの状態推定
- Authors: Alexander Schperberg, Yusuke Tanaka, Saviz Mowlavi, Feng Xu, Bharathan
Balaji, Dennis Hong
- Abstract要約: 脚のあるロボットの状態推定は、非常にダイナミックな動きとセンサーの精度による制限のために困難である。
本稿では,ロボットのトランクの状態を推定するために,プロピロセプションと外部受動的情報を組み合わせたハイブリッドソリューションを提案する。
このフレームワークは正確なロボットの状態推定を行うだけでなく、センサの測定や学習によるモデルの単純化から生じる非線形誤差を最小限に抑えることができる。
- 参考スコア(独自算出の注目度): 44.96502758088673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State estimation for legged robots is challenging due to their highly dynamic
motion and limitations imposed by sensor accuracy. By integrating Kalman
filtering, optimization, and learning-based modalities, we propose a hybrid
solution that combines proprioception and exteroceptive information for
estimating the state of the robot's trunk. Leveraging joint encoder and IMU
measurements, our Kalman filter is enhanced through a single-rigid body model
that incorporates ground reaction force control outputs from convex Model
Predictive Control optimization. The estimation is further refined through
Gated Recurrent Units, which also considers semantic insights and robot height
from a Vision Transformer autoencoder applied on depth images. This framework
not only furnishes accurate robot state estimates, including uncertainty
evaluations, but can minimize the nonlinear errors that arise from sensor
measurements and model simplifications through learning. The proposed
methodology is evaluated in hardware using a quadruped robot on various
terrains, yielding a 65% improvement on the Root Mean Squared Error compared to
our VIO SLAM baseline. Code example: https://github.com/AlexS28/OptiState
- Abstract(参考訳): 脚のあるロボットの状態推定は、非常にダイナミックな動きとセンサーの精度による制限のために困難である。
カルマンフィルタリング,最適化,学習に基づくモダリティを統合することで,ロボットのトランクの状態推定のための固有受容情報と外的情報を組み合わせたハイブリッドソリューションを提案する。
共振器エンコーダとIMU測定を応用し,コンベックスモデル予測制御の最適化による接地力制御出力を組み込んだ単一剛体モデルにより,カルマンフィルタを改良した。
奥行き画像に適用した視覚トランスフォーマーオートエンコーダから意味的洞察とロボット高さを考慮したゲートリカレントユニットにより,推定をさらに洗練する。
このフレームワークは、不確実性評価を含む正確なロボット状態推定を行うだけでなく、センサ測定や学習によるモデルの単純化から生じる非線形誤差を最小限にすることができる。
提案手法は,様々な地形で四足歩行ロボットを用いてハードウェア上で評価され,VO SLAMベースラインと比較してルート平均角誤差が65%向上した。
コード例: https://github.com/alexs28/optistate
関連論文リスト
- Multi-Robot Relative Pose Estimation in SE(2) with Observability
Analysis: A Comparison of Extended Kalman Filtering and Robust Pose Graph
Optimization [1.0485739694839669]
本研究では,相対的なポーズ推定の協調的局所化と可観測性分析に着目する。
ROS/Gazeboシミュレーションでは,4つのセンシング・通信構造について検討する。
ハードウェア実験では、UWBモジュールを備えた2つのTurtlebot3がロボット間の相対的なポーズ推定に使用される。
論文 参考訳(メタデータ) (2024-01-27T06:09:56Z) - Real-to-Sim: Predicting Residual Errors of Robotic Systems with Sparse
Data using a Learning-based Unscented Kalman Filter [65.93205328894608]
我々は,動的・シミュレータモデルと実ロボット間の残差を学習する。
学習した残差誤差により、動的モデル、シミュレーション、および実際のハードウェア間の現実的ギャップをさらに埋めることができることを示す。
論文 参考訳(メタデータ) (2022-09-07T15:15:12Z) - Visual-Inertial Odometry with Online Calibration of Velocity-Control
Based Kinematic Motion Models [3.42658286826597]
視覚慣性オドメトリー(VIO)は、パワーとペイロードの制約のある自律ロボットにとって重要な技術である。
本稿では,車輪付き移動ロボットの速度制御に基づく運動モデルの統合と校正を行うステレオカメラを用いたVIOの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-14T06:21:12Z) - Visual-tactile sensing for Real-time liquid Volume Estimation in
Grasping [58.50342759993186]
変形性容器内の液体をリアルタイムに推定するためのビジュオ触覚モデルを提案する。
我々は、RGBカメラからの生の視覚入力と、特定の触覚センサーからの触覚手がかりの2つの感覚モードを融合する。
ロボットシステムは、推定モデルに基づいて、リアルタイムで適切に制御され、調整される。
論文 参考訳(メタデータ) (2022-02-23T13:38:31Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Robot Localization and Navigation through Predictive Processing using
LiDAR [0.0]
本稿では,レーザーセンサを用いた位置認識とナビゲーションに応用した,予測処理にインスパイアされたアプローチの実証について述べる。
我々は自己教師型学習を通してレーザ生成モデルを学び、オンライン状態推定とナビゲーションの両方を行う。
その結果,オドメトリーの欠如による粒子フィルタとの比較では,状態推定性能が向上した。
論文 参考訳(メタデータ) (2021-09-09T09:58:00Z) - Online Body Schema Adaptation through Cost-Sensitive Active Learning [63.84207660737483]
この作業は、icubロボットシミュレータの7dofアームを使用して、シミュレーション環境で実行された。
コストに敏感な能動学習手法は最適な関節構成を選択するために用いられる。
その結果,コスト依存型能動学習は標準的な能動学習手法と同等の精度を示し,実行運動の約半分を減らした。
論文 参考訳(メタデータ) (2021-01-26T16:01:02Z) - Robots State Estimation and Observability Analysis Based on Statistical
Motion Models [10.941793802354953]
本稿では,移動ロボットの動特性(翻訳と回転)を捉える汎用動作モデルを提案する。
このモデルは白色ランダムプロセスによって駆動される統計モデルに基づいており、エラー状態拡張カルマンフィルタリングフレームワーク(ESEKF)に基づく完全な状態推定アルゴリズムに定式化されている。
システム状態の観測不能なサブセットを特徴付けるために、新しいtexttextbfitthin セットの概念が導入された。
論文 参考訳(メタデータ) (2020-10-12T18:35:33Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。