論文の概要: Learning Perceptual Concepts by Bootstrapping from Human Queries
- arxiv url: http://arxiv.org/abs/2111.05251v1
- Date: Tue, 9 Nov 2021 16:43:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 15:12:38.478004
- Title: Learning Perceptual Concepts by Bootstrapping from Human Queries
- Title(参考訳): ヒューマンクエリからのブートストラップによる知覚概念の学習
- Authors: Andreea Bobu, Chris Paxton, Wei Yang, Balakumar Sundaralingam, Yu-Wei
Chao, Maya Cakmak, Dieter Fox
- Abstract要約: 本稿では,ロボットが概念の低次元変種を学習し,それを用いて高次元空間における概念学習のためのより大きなデータセットを生成する手法を提案する。
これにより、オブジェクトのポーズやバウンディングボックスなど、トレーニング時にのみアクセス可能な意味的に意味のある特権情報の活用が可能になる。
- 参考スコア(独自算出の注目度): 41.07749131023931
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robots need to be able to learn concepts from their users in order to adapt
their capabilities to each user's unique task. But when the robot operates on
high-dimensional inputs, like images or point clouds, this is impractical: the
robot needs an unrealistic amount of human effort to learn the new concept. To
address this challenge, we propose a new approach whereby the robot learns a
low-dimensional variant of the concept and uses it to generate a larger data
set for learning the concept in the high-dimensional space. This lets it take
advantage of semantically meaningful privileged information only accessible at
training time, like object poses and bounding boxes, that allows for richer
human interaction to speed up learning. We evaluate our approach by learning
prepositional concepts that describe object state or multi-object
relationships, like above, near, or aligned, which are key to user
specification of task goals and execution constraints for robots. Using a
simulated human, we show that our approach improves sample complexity when
compared to learning concepts directly in the high-dimensional space. We also
demonstrate the utility of the learned concepts in motion planning tasks on a
7-DoF Franka Panda robot.
- Abstract(参考訳): ロボットは、各ユーザのユニークなタスクに自身の能力を適用するために、ユーザから概念を学ぶ必要がある。
しかし、画像や点雲のような高次元の入力をロボットが操作する場合、これは現実的ではない。
この課題に対処するために,ロボットは概念の低次元変種を学習し,それを用いて高次元空間における概念学習のためのより大きなデータセットを生成する,新しいアプローチを提案する。
これにより、オブジェクトのポーズやバウンディングボックスなど、トレーニング時にのみアクセス可能な意味的に意味のある特権情報を活用することができる。
タスク目標のユーザ定義とロボットの実行制約の鍵となる,オブジェクトの状態や,上,近,あるいはアライメントのようなマルチオブジェクトの関係を記述した前提概念を学習することで,このアプローチを評価する。
シミュレーションされた人間を用いることで,高次元空間で直接概念を学ぶことに比べ,サンプルの複雑さが向上することを示す。
また,7自由度franka pandaロボットの動作計画タスクにおける学習概念の有用性を実証した。
関連論文リスト
- Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Affordances from Human Videos as a Versatile Representation for Robotics [31.248842798600606]
我々は、人間がどこでどのように対話するかを推定する視覚的余裕モデルを訓練する。
これらの行動割当の構造は、ロボットが多くの複雑なタスクを直接実行できるようにする。
私たちは、VRBと呼ばれる4つの現実世界環境、10以上のタスクと2つのロボットプラットフォームにおいて、私たちのアプローチの有効性を示します。
論文 参考訳(メタデータ) (2023-04-17T17:59:34Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Actionable Models: Unsupervised Offline Reinforcement Learning of
Robotic Skills [93.12417203541948]
与えられたデータセットの任意の目標状態に到達するために学習することによって、環境の機能的な理解を学ぶ目的を提案する。
提案手法は,高次元カメラ画像上で動作し,これまで見つからなかったシーンやオブジェクトに一般化した実ロボットの様々なスキルを学習することができる。
論文 参考訳(メタデータ) (2021-04-15T20:10:11Z) - Learning Generalizable Robotic Reward Functions from "In-The-Wild" Human
Videos [59.58105314783289]
ドメインに依存しないビデオ識別器(DVD)は、2つのビデオが同じタスクを実行しているかどうかを判断するために識別器を訓練することによりマルチタスク報酬関数を学習する。
DVDは、人間のビデオの広いデータセットで少量のロボットデータから学習することで、一般化することができる。
DVDと視覚モデル予測制御を組み合わせることで、実際のWidowX200ロボットのロボット操作タスクを単一の人間のデモから未知の環境で解決できます。
論文 参考訳(メタデータ) (2021-03-31T05:25:05Z) - The State of Lifelong Learning in Service Robots: Current Bottlenecks in
Object Perception and Manipulation [3.7858180627124463]
State-of-the-artは、オブジェクトの知覚と操作を適切に結合するように改善を続けている。
ほとんどの場合、ロボットは様々な物体を認識でき、衝突のない軌道を素早く計画して対象物を把握できる。
このような環境下では、バッチ学習に使用するトレーニングデータがどれほど広範囲であっても、ロボットは常に新しいオブジェクトに直面する。
ロボットの自己学習とは別に、専門家でないユーザは、体験獲得のプロセスを対話的にガイドできる。
論文 参考訳(メタデータ) (2020-03-18T11:00:55Z) - A Model of Fast Concept Inference with Object-Factorized Cognitive
Programs [3.4763296976688443]
対象の分解とサブゴールの認知をエミュレートし、人間のレベルの推論速度を向上し、精度を改善し、出力をより説明しやすくするアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-10T18:48:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。