論文の概要: BusyBot: Learning to Interact, Reason, and Plan in a BusyBoard
Environment
- arxiv url: http://arxiv.org/abs/2207.08192v1
- Date: Sun, 17 Jul 2022 14:43:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 18:13:22.968126
- Title: BusyBot: Learning to Interact, Reason, and Plan in a BusyBoard
Environment
- Title(参考訳): BusyBot:BusyBoard環境でのインタラクション、推論、計画を学ぶ
- Authors: Zeyi Liu, Zhenjia Xu, Shuran Song
- Abstract要約: BusyBoardは,ロボット同士のインタラクションにリッチな視覚フィードバックを提供するために,多種多様なオブジェクトセットとオブジェクト間の機能的関係を活用する,おもちゃに触発されたロボット学習環境である。
本研究では,エージェントが協調して3つの基本的な能力(インタラクション,推論,計画)を統合的かつ自己管理的に獲得することのできる学習フレームワークであるBusyBotを紹介する。
本研究では,実環境とシミュレーション環境の両方においてBusyBotを評価し,そのオブジェクトや関係の一般化性を検証した。
- 参考スコア(独自算出の注目度): 17.835219582351826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce BusyBoard, a toy-inspired robot learning environment that
leverages a diverse set of articulated objects and inter-object functional
relations to provide rich visual feedback for robot interactions. Based on this
environment, we introduce a learning framework, BusyBot, which allows an agent
to jointly acquire three fundamental capabilities (interaction, reasoning, and
planning) in an integrated and self-supervised manner. With the rich sensory
feedback provided by BusyBoard, BusyBot first learns a policy to efficiently
interact with the environment; then with data collected using the policy,
BusyBot reasons the inter-object functional relations through a causal
discovery network; and finally by combining the learned interaction policy and
relation reasoning skill, the agent is able to perform goal-conditioned
manipulation tasks. We evaluate BusyBot in both simulated and real-world
environments, and validate its generalizability to unseen objects and
relations. Video is available at https://youtu.be/EJ98xBJZ9ek.
- Abstract(参考訳): BusyBoardは,ロボット同士のインタラクションにリッチな視覚フィードバックを提供するために,多種多様なオブジェクトセットとオブジェクト間の機能的関係を活用するロボット学習環境である。
この環境に基づいて,エージェントが3つの基本的な能力(インタラクション,推論,計画)を統合的かつ自己管理的に獲得することのできる学習フレームワークであるBusyBotを導入する。
BusyBoardが提供したリッチな感覚フィードバックにより、BusyBotは、まず環境と効率的に対話するためのポリシーを学び、次にポリシーを使用して収集されたデータにより、BusyBotは因果発見ネットワークを介して機能間関係を推論し、最後に学習されたインタラクションポリシーと関係推論スキルを組み合わせることで、エージェントはゴール条件付き操作タスクを実行できるようになる。
本研究では,実環境とシミュレーション環境の両方においてBusyBotを評価し,そのオブジェクトや関係の一般化性を検証する。
ビデオはhttps://youtu.be/ej98xbjz9ekで閲覧できる。
関連論文リスト
- Learning Object Properties Using Robot Proprioception via Differentiable Robot-Object Interaction [52.12746368727368]
微分可能シミュレーションは、システム識別の強力なツールとなっている。
本手法は,オブジェクト自体のデータに頼ることなく,ロボットからの情報を用いてオブジェクト特性を校正する。
低コストなロボットプラットフォームにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-04T20:48:38Z) - Polaris: Open-ended Interactive Robotic Manipulation via Syn2Real Visual Grounding and Large Language Models [53.22792173053473]
我々はPolarisという対話型ロボット操作フレームワークを紹介した。
ポラリスはGPT-4と接地された視覚モデルを利用して知覚と相互作用を統合する。
本稿では,Syn2Real(Synthetic-to-Real)ポーズ推定パイプラインを提案する。
論文 参考訳(メタデータ) (2024-08-15T06:40:38Z) - Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - FOCUS: Object-Centric World Models for Robotics Manipulation [4.6956495676681484]
FOCUSは、オブジェクト中心の世界モデルを学ぶモデルベースのエージェントである。
オブジェクト中心の世界モデルにより、エージェントがより効率的にタスクを解くことができることを示す。
また、FOCUSが現実世界の環境でどのように採用されるかを示す。
論文 参考訳(メタデータ) (2023-07-05T16:49:06Z) - HomeRobot: Open-Vocabulary Mobile Manipulation [107.05702777141178]
Open-Vocabulary Mobile Manipulation (OVMM) は、目に見えない環境で任意のオブジェクトを選択し、命令された場所に配置する問題である。
HomeRobotには2つのコンポーネントがある。シミュレーションコンポーネントは、新しい高品質のマルチルームホーム環境に、大規模で多様なキュレートされたオブジェクトセットを使用する。
論文 参考訳(メタデータ) (2023-06-20T14:30:32Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Ditto in the House: Building Articulation Models of Indoor Scenes
through Interactive Perception [31.009703947432026]
本研究は,ロボットの意図的なインタラクションを通じて室内シーンの調音モデルを構築することを検討する。
この課題にインタラクティブな認識アプローチを導入する。
シミュレーションと実世界の両方において,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-02-02T18:22:00Z) - ROS-PyBullet Interface: A Framework for Reliable Contact Simulation and
Human-Robot Interaction [17.093672006793984]
信頼性の高いコンタクト/インパクトシミュレータPyBulletとロボットオペレーティングシステム(ROS)のブリッジを提供するフレームワークであるROS-PyBullet Interfaceを提案する。
さらに,シミュレーション環境でのヒューマン・ロボット・インタラクション(HRI)を促進するために,新たなユーティリティを提供する。
論文 参考訳(メタデータ) (2022-10-13T10:31:36Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。