論文の概要: Playful Interactions for Representation Learning
- arxiv url: http://arxiv.org/abs/2107.09046v1
- Date: Mon, 19 Jul 2021 17:54:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 16:22:45.166116
- Title: Playful Interactions for Representation Learning
- Title(参考訳): 表現学習のための遊び的インタラクション
- Authors: Sarah Young, Jyothish Pari, Pieter Abbeel, Lerrel Pinto
- Abstract要約: 本稿では,下流タスクの視覚的表現を学習するために,遊び心のあるインタラクションを自己指導的に利用することを提案する。
19の多様な環境で2時間の遊び心のあるデータを収集し、自己予測学習を用いて視覚的表現を抽出する。
我々の表現は、標準的な行動クローニングよりも一般化され、必要なデモの半数しか必要とせず、同様の性能を達成できる。
- 参考スコア(独自算出の注目度): 82.59215739257104
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the key challenges in visual imitation learning is collecting large
amounts of expert demonstrations for a given task. While methods for collecting
human demonstrations are becoming easier with teleoperation methods and the use
of low-cost assistive tools, we often still require 100-1000 demonstrations for
every task to learn a visual representation and policy. To address this, we
turn to an alternate form of data that does not require task-specific
demonstrations -- play. Playing is a fundamental method children use to learn a
set of skills and behaviors and visual representations in early learning.
Importantly, play data is diverse, task-agnostic, and relatively cheap to
obtain. In this work, we propose to use playful interactions in a
self-supervised manner to learn visual representations for downstream tasks. We
collect 2 hours of playful data in 19 diverse environments and use
self-predictive learning to extract visual representations. Given these
representations, we train policies using imitation learning for two downstream
tasks: Pushing and Stacking. We demonstrate that our visual representations
generalize better than standard behavior cloning and can achieve similar
performance with only half the number of required demonstrations. Our
representations, which are trained from scratch, compare favorably against
ImageNet pretrained representations. Finally, we provide an experimental
analysis on the effects of different pretraining modes on downstream task
learning.
- Abstract(参考訳): 視覚模倣学習における重要な課題の1つは、与えられたタスクに対して大量の専門家のデモンストレーションを集めることである。
遠隔操作や低コストの補助ツールの使用により,人間によるデモンストレーションの収集が容易になる一方で,視覚的な表現や方針を学ぶためには,各タスクに対して100~1000のデモンストレーションが必要であることも少なくない。
これを解決するために、タスク固有のデモを必要としない代替形式のデータに目を向けます。
遊びは、子どもたちが早期学習でスキル、行動、視覚的表現のセットを学ぶために使う基本的な方法である。
重要なのは、playデータは多様でタスクに依存しず、比較的安価であることです。
本研究では,下流タスクの視覚的表現を学習するために,遊び心のあるインタラクションを自己指導的に利用することを提案する。
19の多様な環境で2時間の遊び心のあるデータを収集し,自己予測学習を用いて視覚的表現を抽出する。
これらの表現から、我々は2つの下流タスク、PushingとStackingの模倣学習を使ってポリシーをトレーニングします。
視覚表現は, 標準行動クローニングよりも一般化し, 必要な実演数の半分しか持たず, 同様の性能を実現できることを示した。
スクラッチからトレーニングされた私たちの表現は、imagenetプリトレーニングされた表現と好意的に比較します。
最後に,様々な事前学習モードが下流タスク学習に与える影響について実験的に分析する。
関連論文リスト
- What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - Self-Supervised Learning of Multi-Object Keypoints for Robotic
Manipulation [8.939008609565368]
本稿では,下流政策学習におけるDense Cor correspondence pretext Taskによる画像キーポイントの学習の有効性を示す。
我々は,多様なロボット操作タスクに対するアプローチを評価し,他の視覚表現学習手法と比較し,その柔軟性と有効性を示した。
論文 参考訳(メタデータ) (2022-05-17T13:15:07Z) - The Surprising Effectiveness of Representation Learning for Visual
Imitation [12.60653315718265]
本稿では,視覚模倣のための行動学習から表現学習を分離することを提案する。
まず、標準教師付きおよび自己教師付き学習手法を用いて、オフラインデータから視覚表現エンコーダを学習する。
この単純なデカップリングにより、オフラインのデモデータセットと実ロボットドア開口の両方における視覚模倣モデルの性能が、以前の視覚模倣よりも向上することが実験的に示されている。
論文 参考訳(メタデータ) (2021-12-02T18:58:09Z) - Learning Multi-Stage Tasks with One Demonstration via Self-Replay [9.34061107793983]
本研究では,1つの人間の実演から日常的な多段階課題を学習するための新しい手法を提案する。
提案手法は, 模擬学習を学習対象の到達段階としてモデル化し, 実証者の動作をオープンループで再現する。
本研究では,日常的なマルチステージタスクを実世界の実験で評価し,本手法が1つの実演から解けることを示す。
論文 参考訳(メタデータ) (2021-11-14T20:57:52Z) - Visual Adversarial Imitation Learning using Variational Models [60.69745540036375]
逆関数仕様は、深い強化学習を通しての学習行動にとって大きな障害であり続けている。
望ましい行動の視覚的なデモンストレーションは、エージェントを教えるためのより簡単で自然な方法を示すことが多い。
変動モデルに基づく対向的模倣学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-07-16T00:15:18Z) - Learning Object Manipulation Skills via Approximate State Estimation
from Real Videos [47.958512470724926]
人間は、いくつかの指導ビデオを見て、新しいタスクを学ぶことに精通しています。
一方、新しいアクションを学習するロボットは、試行錯誤によって多くの労力を必要とするか、あるいは入手が困難な専門家によるデモを使う必要がある。
本稿では,ビデオから直接オブジェクト操作スキルを学習する手法について検討する。
論文 参考訳(メタデータ) (2020-11-13T08:53:47Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。