論文の概要: Working Backwards: Learning to Place by Picking
- arxiv url: http://arxiv.org/abs/2312.02352v1
- Date: Mon, 4 Dec 2023 21:32:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 17:24:11.122691
- Title: Working Backwards: Learning to Place by Picking
- Title(参考訳): 後ろ向きに働く - 選択することによる学習
- Authors: Oliver Limoyo, Abhisek Konar, Trevor Ablett, Jonathan Kelly, Francois
R. Hogan, Gregory Dudek
- Abstract要約: 本研究では,課題の家族に対して,自律的にデモンストレーションを収集する手法であるLearning to Place by Picking(LPP)を提案する。
対象とする位置に配置されたオブジェクトの一連の把握シーケンスから実演を行う。
触覚センサと適応制御を組み合わせることで、人間の介入なしに何百ものデモを収集できるシステムを開発した。
- 参考スコア(独自算出の注目度): 13.372742746443805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Learning to Place by Picking (LPP), a method capable of
autonomously collecting demonstrations for a family of placing tasks in which
objects must be manipulated to specific locations. With LPP, we approach the
learning of robotic object placement policies by reversing the grasping process
and exploiting the inherent symmetry of the pick and place problems.
Specifically, we obtain placing demonstrations from a set of grasp sequences of
objects that are initially located at their target placement locations. Our
system is capable of collecting hundreds of demonstrations without human
intervention by using a combination of tactile sensing and compliant control
for grasps. We train a policy directly from visual observations through
behaviour cloning, using the autonomously-collected demonstrations. By doing
so, the policy can generalize to object placement scenarios outside of the
training environment without privileged information (e.g., placing a plate
picked up from a table and not at the original placement location). We validate
our approach on home robotic scenarios that include dishwasher loading and
table setting. Our approach yields robotic placing policies that outperform
policies trained with kinesthetic teaching, both in terms of performance and
data efficiency, while requiring no human supervision.
- Abstract(参考訳): 本研究では、特定の場所にオブジェクトを操作しなければならないタスクを配置する家族に対して、自律的にデモンストレーションを収集できるLearning to Place by Picking(LPP)を提案する。
lppでは,把持過程を逆転し,選択・配置問題の固有対称性を活用し,ロボットによる物体配置方針の学習にアプローチする。
具体的には,まず,対象位置に位置する対象物の一連の把握シーケンスから,実演を行う。
本システムでは,触覚センシングと協調制御を組み合わせることで,人間の介入なしに数百のデモンストレーションを収集できる。
我々は、自律的に収集された実演を用いて、行動クローンを通して視覚観察から直接ポリシーを訓練する。
これにより、ポリシーは、特権情報(例えば、テーブルから拾ったプレートを元の配置場所ではなく、テーブルから配置する)なしで、トレーニング環境外のオブジェクト配置シナリオに一般化することができる。
食器洗い機とテーブル設定を含む家庭内ロボットシナリオに対するアプローチを検証する。
提案手法は,人的監督を必要とせず,性能とデータ効率の両面で,審美教育で訓練された方針を上回り,ロボットの配置方針を導出する。
関連論文リスト
- Screw Geometry Meets Bandits: Incremental Acquisition of Demonstrations to Generate Manipulation Plans [9.600625243282618]
本研究では,1回に1回に1回,十分な審美的デモンストレーションの集合を得るという課題について検討する。
実験結果から操作計画を生成するために, (i) スクリュー幾何表現を用いて, これらのオープンな問題に対処する新しい手法を提案する。
本研究は,2つの実例操作課題,すなわち注水とスクーピングに関する実験結果である。
論文 参考訳(メタデータ) (2024-10-23T20:57:56Z) - DITTO: Demonstration Imitation by Trajectory Transformation [31.930923345163087]
そこで本研究では,RGB-Dビデオ録画による実演映像のワンショット模倣の問題に対処する。
本稿では,2段階のプロセスを提案する。第1段階では実演軌道をオフラインに抽出し,操作対象のセグメンテーションと,容器などの二次物体に対する相対運動を決定する。
オンライン軌道生成段階では、まず全ての物体を再検出し、次にデモ軌道を現在のシーンにワープし、ロボット上で実行します。
論文 参考訳(メタデータ) (2024-03-22T13:46:51Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - Learning Extrinsic Dexterity with Parameterized Manipulation Primitives [8.7221770019454]
我々は、オブジェクトのポーズを変えるために環境を利用する一連のアクションを学習する。
我々のアプローチは、オブジェクトとグリップと環境の間の相互作用を利用してオブジェクトの状態を制御することができる。
拘束されたテーブルトップワークスペースから様々な重量,形状,摩擦特性の箱状物体を選別する手法の評価を行った。
論文 参考訳(メタデータ) (2023-10-26T21:28:23Z) - Polybot: Training One Policy Across Robots While Embracing Variability [70.74462430582163]
複数のロボットプラットフォームにデプロイするための単一のポリシーをトレーニングするための重要な設計決定セットを提案する。
われわれのフレームワークは、まず、手首カメラを利用して、我々のポリシーの観察空間と行動空間を具体化して調整する。
6つのタスクと3つのロボットにまたがる60時間以上のデータセットを用いて,関節の形状や大きさの異なるデータセットの評価を行った。
論文 参考訳(メタデータ) (2023-07-07T17:21:16Z) - One-shot Imitation Learning via Interaction Warping [32.5466340846254]
本稿では,1つの実演からSE(3)ロボット操作ポリシーを学習するためのインタラクションウォーピング法を提案する。
我々は、オブジェクトインスタンス間で点雲を整列させる技術である形状ワープを用いて、環境中の各オブジェクトの3Dメッシュを推論する。
3つのシミュレーションおよび実世界のオブジェクト再配置タスクで1ショットの模倣学習を成功させる。
論文 参考訳(メタデータ) (2023-06-21T17:26:11Z) - Learning Video-Conditioned Policies for Unseen Manipulation Tasks [83.2240629060453]
ビデオ条件付きポリシー学習は、以前は目に見えないタスクの人間のデモをロボット操作スキルにマッピングする。
我々は,現在のシーン観察と対象課題のビデオから適切なアクションを生成するためのポリシーを学習する。
われわれは,多タスクロボット操作環境の課題と,技術面における性能の面から,そのアプローチを検証した。
論文 参考訳(メタデータ) (2023-05-10T16:25:42Z) - Leveraging Demonstrations with Latent Space Priors [90.56502305574665]
本稿では,スキル学習とシーケンスモデリングを組み合わせることで,実演データセットを活用することを提案する。
本研究では、国家のみのモーションキャプチャーの実証から、そのような先行情報をどうやって取得するかを示し、政策学習に組み込むためのいくつかの方法を探る。
実験結果から, 学習速度と最終性能において, 遅延空間が顕著に向上することが確認された。
論文 参考訳(メタデータ) (2022-10-26T13:08:46Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - Human-in-the-Loop Imitation Learning using Remote Teleoperation [72.2847988686463]
6-DoF操作設定に合わせたデータ収集システムを構築します。
システムによって収集された新しいデータに基づいて,ポリシーを反復的にトレーニングするアルゴリズムを開発した。
介入型システムで収集したデータに基づいて訓練されたエージェントと、非介入型デモ参加者が収集した同等数のサンプルで訓練されたアルゴリズムを上回るエージェントを実証する。
論文 参考訳(メタデータ) (2020-12-12T05:30:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。