論文の概要: One ACT Play: Single Demonstration Behavior Cloning with Action Chunking
Transformers
- arxiv url: http://arxiv.org/abs/2309.10175v1
- Date: Mon, 18 Sep 2023 21:50:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 17:15:54.429330
- Title: One ACT Play: Single Demonstration Behavior Cloning with Action Chunking
Transformers
- Title(参考訳): one act play: アクションチャンキングトランスフォーマーによる単一のデモンストレーション動作のクローニング
- Authors: Abraham George and Amir Barati Farimani
- Abstract要約: 人間は1つか2つのデモを見ただけで、複雑なタスクを完了させることを学ぶことができる。
我々の研究は、行動クローニングを使用して、人間の1つのデモンストレーションのみを与えられたタスクを学ぶことで、この能力をエミュレートすることを目指している。
本研究では,行動チャンキングエージェントが推論時に使用する時間的アンサンブル法に新たな付加法を開発した。
- 参考スコア(独自算出の注目度): 11.875194596371484
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Learning from human demonstrations (behavior cloning) is a cornerstone of
robot learning. However, most behavior cloning algorithms require a large
number of demonstrations to learn a task, especially for general tasks that
have a large variety of initial conditions. Humans, however, can learn to
complete tasks, even complex ones, after only seeing one or two demonstrations.
Our work seeks to emulate this ability, using behavior cloning to learn a task
given only a single human demonstration. We achieve this goal by using linear
transforms to augment the single demonstration, generating a set of
trajectories for a wide range of initial conditions. With these demonstrations,
we are able to train a behavior cloning agent to successfully complete three
block manipulation tasks. Additionally, we developed a novel addition to the
temporal ensembling method used by action chunking agents during inference. By
incorporating the standard deviation of the action predictions into the
ensembling method, our approach is more robust to unforeseen changes in the
environment, resulting in significant performance improvements.
- Abstract(参考訳): 人間のデモ(行動クローン)から学ぶことは、ロボット学習の基盤となる。
しかし、ほとんどの行動クローニングアルゴリズムは、特に様々な初期条件を持つ一般的なタスクにおいて、タスクを学ぶために多数のデモを必要とする。
しかし、人間は1つか2つのデモを見ただけで、複雑なタスクを完了させることを学ぶことができる。
我々の研究は、行動クローニングを使用して、人間の1つのデモンストレーションのみを与えられたタスクを学ぶことで、この能力をエミュレートすることを目指している。
この目的を達成するために、線形変換を用いて1つの実演を拡大し、幅広い初期条件に対する一連の軌道を生成する。
これらの実演により, 3つのブロック操作タスクを成功させるために, 行動クローニングエージェントを訓練することができる。
さらに,行動チャンキングエージェントが推論中に使用する時間的センシング法を新たに追加した。
動作予測の標準偏差を ensembling 法に組み込むことで, 環境の変化を予測できないほど頑健になり, 性能が大幅に向上した。
関連論文リスト
- DITTO: Demonstration Imitation by Trajectory Transformation [31.930923345163087]
そこで本研究では,RGB-Dビデオ録画による実演映像のワンショット模倣の問題に対処する。
本稿では,2段階のプロセスを提案する。第1段階では実演軌道をオフラインに抽出し,操作対象のセグメンテーションと,容器などの二次物体に対する相対運動を決定する。
オンライン軌道生成段階では、まず全ての物体を再検出し、次にデモ軌道を現在のシーンにワープし、ロボット上で実行します。
論文 参考訳(メタデータ) (2024-03-22T13:46:51Z) - SWBT: Similarity Weighted Behavior Transformer with the Imperfect
Demonstration for Robotic Manipulation [32.78083518963342]
SWBT(Simisity Weighted Behavior Transformer)という新しいフレームワークを提案する。
SWBTは、環境との相互作用なしに、専門家と不完全なデモンストレーションの両方から効果的に学習する。
我々は、ロボット操作タスクのオフライン模倣学習環境に不完全なデモンストレーションを統合する試みを初めて行った。
論文 参考訳(メタデータ) (2024-01-17T04:15:56Z) - Cross-Domain Transfer via Semantic Skill Imitation [49.83150463391275]
本稿では、例えば人間ビデオなどのソースドメインからのデモンストレーションを利用して、強化学習(RL)を高速化する意味模倣手法を提案する。
関節速度のような低レベルな動作を模倣する代わりに、我々のアプローチは「電子レンジを開く」や「ストーブを回す」といった、実証された意味的なスキルのシーケンスを模倣する。
論文 参考訳(メタデータ) (2022-12-14T18:46:14Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Leveraging Sequentiality in Reinforcement Learning from a Single
Demonstration [68.94506047556412]
本稿では,複雑なロボットタスクの制御ポリシーを1つの実演で学習するために,シーケンシャルなバイアスを活用することを提案する。
本研究は, ヒューマノイド移動やスタンドアップなど, 模擬課題のいくつかを, 前例のないサンプル効率で解くことができることを示す。
論文 参考訳(メタデータ) (2022-11-09T10:28:40Z) - Bottom-Up Skill Discovery from Unsegmented Demonstrations for
Long-Horizon Robot Manipulation [55.31301153979621]
我々は,実世界の長距離ロボット操作作業に,スキル発見による取り組みを行う。
未解決のデモンストレーションから再利用可能なスキルのライブラリを学ぶためのボトムアップアプローチを提案する。
提案手法は,多段階操作タスクにおける最先端の模倣学習手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-28T16:18:54Z) - Coarse-to-Fine Imitation Learning: Robot Manipulation from a Single
Demonstration [8.57914821832517]
視覚的模倣学習のためのシンプルな新しい手法を導入し,新しいロボット操作タスクを1人の人間による実演から学習できるようにする。
提案手法は、状態推定問題として模倣学習をモデル化し、状態がエンドエフェクタのポーズとして定義される。
テスト時、エンドエフェクタは線形経路を通って推定状態に移動し、元のデモのエンドエフェクタ速度を単に再生する。
論文 参考訳(メタデータ) (2021-05-13T16:36:55Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。