論文の概要: Efficient Sensorimotor Learning for Open-world Robot Manipulation
- arxiv url: http://arxiv.org/abs/2505.06136v1
- Date: Wed, 07 May 2025 18:23:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.321899
- Title: Efficient Sensorimotor Learning for Open-world Robot Manipulation
- Title(参考訳): オープンワールドロボットマニピュレーションのための高能率センタモレータ学習
- Authors: Yifeng Zhu,
- Abstract要約: この論文は、効率的な感覚運動学習手法を用いて、オープンワールドロボットマニピュレーション問題に取り組む。
効率的な感覚運動学習を実現するための鍵は、限られた量の実演データに存在する規則的なパターンを活用することである。
- 参考スコア(独自算出の注目度): 6.1694031687146955
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This dissertation considers Open-world Robot Manipulation, a manipulation problem where a robot must generalize or quickly adapt to new objects, scenes, or tasks for which it has not been pre-programmed or pre-trained. This dissertation tackles the problem using a methodology of efficient sensorimotor learning. The key to enabling efficient sensorimotor learning lies in leveraging regular patterns that exist in limited amounts of demonstration data. These patterns, referred to as ``regularity,'' enable the data-efficient learning of generalizable manipulation skills. This dissertation offers a new perspective on formulating manipulation problems through the lens of regularity. Building upon this notion, we introduce three major contributions. First, we introduce methods that endow robots with object-centric priors, allowing them to learn generalizable, closed-loop sensorimotor policies from a small number of teleoperation demonstrations. Second, we introduce methods that constitute robots' spatial understanding, unlocking their ability to imitate manipulation skills from in-the-wild video observations. Last but not least, we introduce methods that enable robots to identify reusable skills from their past experiences, resulting in systems that can continually imitate multiple tasks in a sequential manner. Altogether, the contributions of this dissertation help lay the groundwork for building general-purpose personal robots that can quickly adapt to new situations or tasks with low-cost data collection and interact easily with humans. By enabling robots to learn and generalize from limited data, this dissertation takes a step toward realizing the vision of intelligent robotic assistants that can be seamlessly integrated into everyday scenarios.
- Abstract(参考訳): オープンワールドロボットマニピュレーション(英: Open-world Robot Manipulation)とは、ロボットが事前にプログラムや事前訓練を受けていない新しい物体、シーン、タスクを一般化または迅速に適応しなければならない操作問題である。
この論文は,効率的な感性学習手法を用いてこの問題に取り組む。
効率的な感覚運動学習を実現するための鍵は、限られた量の実演データに存在する規則的なパターンを活用することである。
これらのパターンは '`regularity' と呼ばれ、一般化可能な操作スキルのデータ効率の学習を可能にする。
この論文は、規則性のレンズによる操作問題を定式化する新しい視点を提供する。
この概念に基づいて,3つの主要なコントリビューションを紹介します。
まず,ロボットに物体中心の先行性を与える手法を導入し,少数の遠隔操作実験から一般化可能な閉ループセンサモレータポリシーを学習する。
第2に,ロボットの空間的理解を構成する手法を導入し,映像観察から操作スキルを模倣する能力を解き放つ。
最後に,ロボットが過去の経験から再利用可能なスキルを識別する手法を導入し,複数のタスクを連続的に模倣するシステムを実現する。
この論文の貢献は、低コストのデータ収集で新しい状況やタスクに迅速に適応し、人間と簡単に対話できる汎用のパーソナルロボットを構築するための基礎となる。
ロボットが限られたデータから学習し、一般化できるようにすることで、この論文は、日常のシナリオにシームレスに統合できるインテリジェントなロボットアシスタントのビジョンの実現に向けた一歩を踏み出す。
関連論文リスト
- A Survey of Embodied Learning for Object-Centric Robotic Manipulation [27.569063968870868]
オブジェクト中心のロボット操作のための身体学習は、AIの急速に発展し、挑戦的な分野である。
データ駆動機械学習とは異なり、具体化学習は環境との物理的相互作用を通じてロボット学習に焦点を当てる。
論文 参考訳(メタデータ) (2024-08-21T11:32:09Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - BC-Z: Zero-Shot Task Generalization with Robotic Imitation Learning [108.41464483878683]
本稿では,視覚に基づくロボット操作システムにおいて,新しいタスクを一般化することの課題について検討する。
実演と介入の両方から学ぶことができるインタラクティブで柔軟な模倣学習システムを開発した。
実際のロボットにおけるデータ収集を100以上のタスクにスケールすると、このシステムは平均的な成功率44%で24の目に見えない操作タスクを実行できる。
論文 参考訳(メタデータ) (2022-02-04T07:30:48Z) - Dual-Arm Adversarial Robot Learning [0.6091702876917281]
ロボット学習のためのプラットフォームとしてデュアルアーム設定を提案する。
このセットアップの潜在的なメリットと、追求できる課題と研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-10-15T12:51:57Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - The Ingredients of Real-World Robotic Reinforcement Learning [71.92831985295163]
実世界で収集されたデータによって継続的に自律的に改善できるロボット学習システムに必要な要素について論じる。
本稿では,このようなシステムの特異なインスタンス化を事例として,デクスタラスな操作を事例として提案する。
我々は人間の介入なしに学習できることを実証し、現実世界の3本指の手で様々な視覚ベースのスキルを習得する。
論文 参考訳(メタデータ) (2020-04-27T03:36:10Z) - Efficient reinforcement learning control for continuum robots based on
Inexplicit Prior Knowledge [3.3645162441357437]
本稿では,未熟な事前知識に基づく効率的な強化学習手法を提案する。
本手法を用いることで、腱駆動ロボットのアクティブな視覚追跡と距離維持を実現することができる。
論文 参考訳(メタデータ) (2020-02-26T15:47:11Z) - Scalable Multi-Task Imitation Learning with Autonomous Improvement [159.9406205002599]
我々は、自律的なデータ収集を通じて継続的に改善できる模倣学習システムを構築している。
我々は、ロボット自身の試行を、実際に試みたタスク以外のタスクのデモとして活用する。
従来の模倣学習のアプローチとは対照的に,本手法は,継続的改善のための疎い監視によるデータ収集を自律的に行うことができる。
論文 参考訳(メタデータ) (2020-02-25T18:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。