論文の概要: Growing from Exploration: A self-exploring framework for robots based on
foundation models
- arxiv url: http://arxiv.org/abs/2401.13462v1
- Date: Wed, 24 Jan 2024 14:04:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-25 14:30:17.982670
- Title: Growing from Exploration: A self-exploring framework for robots based on
foundation models
- Title(参考訳): 探索から成長する:基盤モデルに基づくロボットのための自己探索フレームワーク
- Authors: Shoujie Li and Ran Yu and Tong Wu and JunWen Zhong and Xiao-Ping Zhang
and Wenbo Ding
- Abstract要約: 我々は、ロボットが人間の介入なしに自律的に探索し学習することを可能にするGExpというフレームワークを提案する。
幼児が世界と対話する方法に触発されて、GExpはロボットに、一連の自己生成タスクで環境を理解し、探索するように促す。
- 参考スコア(独自算出の注目度): 13.250831101705694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Intelligent robot is the ultimate goal in the robotics field. Existing works
leverage learning-based or optimization-based methods to accomplish
human-defined tasks. However, the challenge of enabling robots to explore
various environments autonomously remains unresolved. In this work, we propose
a framework named GExp, which enables robots to explore and learn autonomously
without human intervention. To achieve this goal, we devise modules including
self-exploration, knowledge-base-building, and close-loop feedback based on
foundation models. Inspired by the way that infants interact with the world,
GExp encourages robots to understand and explore the environment with a series
of self-generated tasks. During the process of exploration, the robot will
acquire skills from beneficial experiences that are useful in the future. GExp
provides robots with the ability to solve complex tasks through
self-exploration. GExp work is independent of prior interactive knowledge and
human intervention, allowing it to adapt directly to different scenarios,
unlike previous studies that provided in-context examples as few-shot learning.
In addition, we propose a workflow of deploying the real-world robot system
with self-learned skills as an embodied assistant.
- Abstract(参考訳): 知能ロボットはロボット分野における究極の目標である。
既存の作業は、人間定義のタスクを達成するために学習ベースまたは最適化ベースの方法を活用する。
しかし、ロボットが様々な環境を自律的に探索できるという課題は解決されていない。
本研究では,ロボットが人間の介入なしに自律的に探索・学習できるGExpというフレームワークを提案する。
この目標を達成するために,基礎モデルに基づく自己探索,知識ベース構築,クローズループフィードバックを含むモジュールを考案する。
幼児が世界と対話する方法に触発されて、GExpはロボットに一連の自己生成タスクで環境を理解し、探索するように促す。
探索の過程で、ロボットは将来に役立つ有益な経験からスキルを得る。
GExpはロボットに、自己探索によって複雑なタスクを解く機能を提供する。
GExpの作業は、事前の対話的な知識と人間の介入とは独立しており、いくつかのショット学習としてコンテキスト内サンプルを提供する以前の研究とは異なり、異なるシナリオに直接適応することができる。
さらに,実世界のロボットシステムに自己学習のスキルを具体的アシスタントとして展開するワークフローを提案する。
関連論文リスト
- Correspondence learning between morphologically different robots via
task demonstrations [2.1374208474242815]
形態の異なる2つ以上のロボットの対応関係を学習する手法を提案する。
本提案手法では,関節制御付き固定ベースマニピュレータロボットと差動駆動移動ロボットとが対応可能である。
本研究では,実際のマニピュレータロボットとシミュレートされた移動ロボットとの対応学習の概念実証を行う。
論文 参考訳(メタデータ) (2023-10-20T12:42:06Z) - Affordances from Human Videos as a Versatile Representation for Robotics [31.248842798600606]
我々は、人間がどこでどのように対話するかを推定する視覚的余裕モデルを訓練する。
これらの行動割当の構造は、ロボットが多くの複雑なタスクを直接実行できるようにする。
私たちは、VRBと呼ばれる4つの現実世界環境、10以上のタスクと2つのロボットプラットフォームにおいて、私たちのアプローチの有効性を示します。
論文 参考訳(メタデータ) (2023-04-17T17:59:34Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Dual-Arm Adversarial Robot Learning [0.6091702876917281]
ロボット学習のためのプラットフォームとしてデュアルアーム設定を提案する。
このセットアップの潜在的なメリットと、追求できる課題と研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-10-15T12:51:57Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Learning Generalizable Robotic Reward Functions from "In-The-Wild" Human
Videos [59.58105314783289]
ドメインに依存しないビデオ識別器(DVD)は、2つのビデオが同じタスクを実行しているかどうかを判断するために識別器を訓練することによりマルチタスク報酬関数を学習する。
DVDは、人間のビデオの広いデータセットで少量のロボットデータから学習することで、一般化することができる。
DVDと視覚モデル予測制御を組み合わせることで、実際のWidowX200ロボットのロボット操作タスクを単一の人間のデモから未知の環境で解決できます。
論文 参考訳(メタデータ) (2021-03-31T05:25:05Z) - Learning Locomotion Skills in Evolvable Robots [10.167123492952694]
本稿では,任意の形状のモジュール型ロボットが目標に向かって歩いたり,移動した場合にこの目標に従うことを学習できるようにするための,コントローラアーキテクチャと汎用学習手法を提案する。
我々のアプローチは、現実世界の3つのシナリオにおいて、クモ、ヤモリ、そしてその子孫の3つのロボットに対して検証されている。
論文 参考訳(メタデータ) (2020-10-19T14:01:50Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z) - A Survey of Behavior Learning Applications in Robotics -- State of the Art and Perspectives [44.45953630612019]
最近の多くの領域での機械学習の成功は圧倒的に多い。
実際のロボットで学んだり使ったりした行動について、幅広い概要を述べます。
論文 参考訳(メタデータ) (2019-06-05T07:54:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。