論文の概要: Robotic Learning the Sequence of Packing Irregular Objects from Human
Demonstrations
- arxiv url: http://arxiv.org/abs/2210.01645v2
- Date: Wed, 8 Nov 2023 18:11:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 20:42:16.565396
- Title: Robotic Learning the Sequence of Packing Irregular Objects from Human
Demonstrations
- Title(参考訳): 人間の実験から不規則な物体を詰め込む過程を学習するロボット
- Authors: Andr\'e Santos, Nuno Ferreira Duarte, Atabak Dehban, Jos\'e
Santos-Victor
- Abstract要約: 我々は、食料品などの不規則な物でロボットビンを梱包するという課題に取り組む。
我々のアプローチは、暗黙的なタスク知識を抽出するために、専門家によるデモンストレーションから直接学ぶことである。
私たちは、オブジェクトのパッキングシーケンスを予測するためにマルコフ連鎖を学ぶために、人間のデモに頼っています。
- 参考スコア(独自算出の注目度): 3.58439716487063
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We tackle the challenge of robotic bin packing with irregular objects, such
as groceries. Given the diverse physical attributes of these objects and the
complex constraints governing their placement and manipulation, employing
preprogrammed strategies becomes unfeasible. Our approach is to learn directly
from expert demonstrations in order to extract implicit task knowledge and
strategies to ensure safe object positioning, efficient use of space, and the
generation of human-like behaviors that enhance human-robot trust.
We rely on human demonstrations to learn a Markov chain for predicting the
object packing sequence for a given set of items and then compare it with human
performance. Our experimental results show that the model outperforms human
performance by generating sequence predictions that humans classify as
human-like more frequently than human-generated sequences.
The human demonstrations were collected using our proposed VR platform,
BoxED, which is a box packaging environment for simulating real-world objects
and scenarios for fast and streamlined data collection with the purpose of
teaching robots. We collected data from 43 participants packing a total of 263
boxes with supermarket-like objects, yielding 4644 object manipulations. Our VR
platform can be easily adapted to new scenarios and objects, and is publicly
available, alongside our dataset, at https://github.com/andrejfsantos4/BoxED.
- Abstract(参考訳): 我々は、食料品などの不規則な物でロボットビンを梱包するという課題に取り組む。
これらのオブジェクトの多様な物理的特性とそれらの配置と操作を管理する複雑な制約を考えると、事前にプログラムされた戦略を採用することは不可能になる。
我々のアプローチは、暗黙のタスク知識と戦略を抽出し、安全な物体の位置決め、空間の効率的な利用、そして人間-ロボットの信頼を高める人間のような行動を生み出すために、専門家によるデモンストレーションから直接学習することである。
我々は、マルコフ連鎖を学習するために人間のデモに頼り、与えられたアイテムのオブジェクトパッキングシーケンスを予測し、それを人間のパフォーマンスと比較する。
実験の結果,このモデルは,人間が生成したシーケンスよりも頻度が高いと分類するシーケンス予測を生成することにより,ヒトのパフォーマンスを上回っていることがわかった。
提案したVRプラットフォームであるBoxEDを用いて人体デモを収集した。実世界のオブジェクトをシミュレートするボックスパッケージ環境であり、ロボットに教える目的で、高速で合理化されたデータ収集のシナリオである。
43名の参加者から,合計263箱にスーパーのようなオブジェクトを詰め込み,4644個のオブジェクト操作を行った。
私たちのVRプラットフォームは、新しいシナリオやオブジェクトに簡単に適応することができ、データセットとともに、https://github.com/andrejfsantos4/BoxEDで公開されています。
関連論文リスト
- Track2Act: Predicting Point Tracks from Internet Videos enables Generalizable Robot Manipulation [65.46610405509338]
我々は、ゼロショットロボット操作を可能にする汎用的な目標条件ポリシーを学習することを目指している。
私たちのフレームワークであるTrack2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
学習したトラック予測を残留ポリシーと組み合わせることで,多種多様な汎用ロボット操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - MimicGen: A Data Generation System for Scalable Robot Learning using
Human Demonstrations [55.549956643032836]
MimicGenは、少数の人間のデモから大規模でリッチなデータセットを自動的に合成するシステムである。
ロボットエージェントは,この生成したデータセットを模倣学習により効果的に訓練し,長期的・高精度なタスクにおいて高い性能を達成することができることを示す。
論文 参考訳(メタデータ) (2023-10-26T17:17:31Z) - Learning Video-Conditioned Policies for Unseen Manipulation Tasks [83.2240629060453]
ビデオ条件付きポリシー学習は、以前は目に見えないタスクの人間のデモをロボット操作スキルにマッピングする。
我々は,現在のシーン観察と対象課題のビデオから適切なアクションを生成するためのポリシーを学習する。
われわれは,多タスクロボット操作環境の課題と,技術面における性能の面から,そのアプローチを検証した。
論文 参考訳(メタデータ) (2023-05-10T16:25:42Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - DexTransfer: Real World Multi-fingered Dexterous Grasping with Minimal
Human Demonstrations [51.87067543670535]
本研究では,少数の人間によるデモンストレーションを行い,見えない物体のポーズを学習するロボット学習システムを提案する。
我々は,物体の点群を入力として捉え,物体を異なる初期ロボット状態から把握するための連続的な動作を予測する,厳密な把握ポリシーを訓練する。
我々のデータセットから学んだポリシーは、シミュレーションと現実世界の両方で見えないオブジェクトのポーズをうまく一般化することができる。
論文 参考訳(メタデータ) (2022-09-28T17:51:49Z) - Human-like Planning for Reaching in Cluttered Environments [11.55532557594561]
人間は、散らかった環境でオブジェクトに手を伸ばすのに驚くほど適しています。
我々は、人間の高度な操作計画を特定し、これらのスキルをロボットプランナーに転送する。
人間のようなプランナーは、最先端の標準軌道最適化アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2020-02-28T14:28:50Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。