論文の概要: Bayesian Imitation Learning for End-to-End Mobile Manipulation
- arxiv url: http://arxiv.org/abs/2202.07600v1
- Date: Tue, 15 Feb 2022 17:38:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 16:07:06.230563
- Title: Bayesian Imitation Learning for End-to-End Mobile Manipulation
- Title(参考訳): エンドツーエンドモバイル操作のためのベイズ模倣学習
- Authors: Yuqing Du and Daniel Ho and Alexander A. Alemi and Eric Jang and Mohi
Khansari
- Abstract要約: RGB + 深度カメラのような追加のセンサー入力によるポリシーの強化は、ロボットの知覚能力を改善するための簡単なアプローチである。
畳み込みニューラルネットワークを正規化するために変分情報ボトルネックを用いることで、保持領域への一般化が向上することを示す。
提案手法は, シミュレーションと現実のギャップを埋めることと, RGBと奥行き変調をうまく融合できることを実証する。
- 参考スコア(独自算出の注目度): 80.47771322489422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we investigate and demonstrate benefits of a Bayesian approach
to imitation learning from multiple sensor inputs, as applied to the task of
opening office doors with a mobile manipulator. Augmenting policies with
additional sensor inputs, such as RGB + depth cameras, is a straightforward
approach to improving robot perception capabilities, especially for tasks that
may favor different sensors in different situations. As we scale multi-sensor
robotic learning to unstructured real-world settings (e.g. offices, homes) and
more complex robot behaviors, we also increase reliance on simulators for cost,
efficiency, and safety. Consequently, the sim-to-real gap across multiple
sensor modalities also increases, making simulated validation more difficult.
We show that using the Variational Information Bottleneck (Alemi et al., 2016)
to regularize convolutional neural networks improves generalization to held-out
domains and reduces the sim-to-real gap in a sensor-agnostic manner. As a side
effect, the learned embeddings also provide useful estimates of model
uncertainty for each sensor. We demonstrate that our method is able to help
close the sim-to-real gap and successfully fuse RGB and depth modalities based
on understanding of the situational uncertainty of each sensor. In a real-world
office environment, we achieve 96% task success, improving upon the baseline by
+16%.
- Abstract(参考訳): 本研究では,複数のセンサ入力からの模倣学習に対するベイズ的アプローチの利点を,移動マニピュレータを用いたオフィスドアを開ける作業に適用して検討し,実証する。
RGB + 深度カメラのような追加のセンサー入力によるポリシーの強化は、ロボットの知覚能力を改善するための直接的なアプローチである。
マルチセンサーロボット学習を、非構造化現実環境(オフィスや家庭など)やより複雑なロボット行動に拡大するにつれて、コストや効率、安全性といったシミュレータへの依存度も高まります。
その結果、複数のセンサモード間のsim-to-realギャップも増加し、シミュレーション検証がより困難になる。
畳み込みニューラルネットワークを正規化するために,変化情報ボット(Alemi et al., 2016)を用いることで,保持領域への一般化が向上し,センサに依存しない方法で,シモン・トゥ・リアルギャップを低減できることを示す。
副作用として、学習した埋め込みは、各センサに対するモデルの不確かさの有用な推定も提供する。
本手法は,各センサの状況不確かさの理解に基づいて,シミュレーションと現実のギャップを埋め,RGBと奥行きのモダリティを融合させることが可能であることを示す。
現実のオフィス環境では、96%のタスク成功を実現し、ベースラインを+16%改善します。
関連論文リスト
- Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - Multimodal Anomaly Detection based on Deep Auto-Encoder for Object Slip
Perception of Mobile Manipulation Robots [22.63980025871784]
提案フレームワークは,RGBや深度カメラ,マイク,力トルクセンサなど,さまざまなロボットセンサから収集した異種データストリームを統合する。
統合されたデータは、ディープオートエンコーダを訓練して、通常の状態を示す多感覚データの潜在表現を構築するために使用される。
次に、トレーニングされたエンコーダの潜伏値と再構成された入力データの潜伏値との差によって測定された誤差スコアによって異常を識別することができる。
論文 参考訳(メタデータ) (2024-03-06T09:15:53Z) - Cognitive TransFuser: Semantics-guided Transformer-based Sensor Fusion
for Improved Waypoint Prediction [38.971222477695214]
RGB-LIDARベースのマルチタスク機能融合ネットワークであるCognitive TransFuserは、安全で完全な道路ナビゲーションのために、ベースラインネットワークを大幅に拡張し、超える。
提案したネットワークをCown05 Short と Town05 Long Benchmarkで広範囲な実験により検証し,44.2 FPSのリアルタイム推論時間を実現した。
論文 参考訳(メタデータ) (2023-08-04T03:59:10Z) - See What the Robot Can't See: Learning Cooperative Perception for Visual
Navigation [11.943412856714154]
センサをトレーニングして、関連する視点情報を移動ロボットにエンコードし、伝達する。
我々は、全てのセンサーが目標への最短経路に沿って方向を予測できるようにするという課題を克服する。
その結果,センサとロボットの通信により,SPLの最大2.0倍の改善が達成された。
論文 参考訳(メタデータ) (2022-08-01T11:37:01Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - Point Cloud Based Reinforcement Learning for Sim-to-Real and Partial
Observability in Visual Navigation [62.22058066456076]
強化学習(Reinforcement Learning, RL)は、複雑なロボットタスクを解決する強力なツールである。
RL は sim-to-real transfer problem として知られる現実世界では直接作用しない。
本稿では,点雲と環境ランダム化によって構築された観測空間を学習する手法を提案する。
論文 参考訳(メタデータ) (2020-07-27T17:46:59Z) - Understanding Multi-Modal Perception Using Behavioral Cloning for
Peg-In-a-Hole Insertion Tasks [21.275342989110978]
本稿では,実世界の組立作業における制御器を学習するために,複数のセンサモードが組み合わさった場合の利点について検討する。
動作クローン法の性能を向上させるために, マルチステップ・アヘッド・ロス関数を提案する。
論文 参考訳(メタデータ) (2020-07-22T19:46:51Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Deep Soft Procrustes for Markerless Volumetric Sensor Alignment [81.13055566952221]
本研究では、より堅牢なマルチセンサ空間アライメントを実現するために、マーカーレスデータ駆動対応推定を改善する。
我々は、幾何学的制約を終末的に典型的なセグメンテーションベースモデルに組み込み、対象のポーズ推定タスクと中間密な分類タスクをブリッジする。
実験により,マーカーベースの手法で同様の結果が得られ,マーカーレス手法よりも優れ,またキャリブレーション構造のポーズ変動にも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-03-23T10:51:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。