論文の概要: Learning to Shift Attention for Motion Generation
- arxiv url: http://arxiv.org/abs/2102.12141v1
- Date: Wed, 24 Feb 2021 09:07:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-25 13:27:23.895146
- Title: Learning to Shift Attention for Motion Generation
- Title(参考訳): モーション生成へのシフト意識の学習
- Authors: You Zhou and Jianfeng Gao and Tamim Asfour
- Abstract要約: ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
- 参考スコア(独自算出の注目度): 55.61994201686024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One challenge of motion generation using robot learning from demonstration
techniques is that human demonstrations follow a distribution with multiple
modes for one task query. Previous approaches fail to capture all modes or tend
to average modes of the demonstrations and thus generate invalid trajectories.
The other difficulty is the small number of demonstrations that cannot cover
the entire working space. To overcome this problem, a motion generation model
with extrapolation ability is needed. Previous works restrict task queries as
local frames and learn representations in local frames. We propose a model to
solve both problems. For multiple modes, we suggest to learn local latent
representations of motion trajectories with a density estimation method based
on real-valued non-volume preserving (RealNVP) transformations that provides a
set of powerful, stably invertible, and learnable transformations. To improve
the extrapolation ability, we propose to shift the attention of the robot from
one local frame to another during the task execution. In experiments, we
consider the docking problem used also in previous works where a trajectory has
to be generated to connect two dockers without collision. We increase
complexity of the task and show that the proposed method outperforms other
approaches. In addition, we evaluate the approach in real robot experiments.
- Abstract(参考訳): ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
もう1つの難題は、作業スペース全体をカバーすることができない少数のデモンストレーションである。
この問題を解決するためには,外挿能力を有する運動生成モデルが必要である。
以前の作業では、タスククエリをローカルフレームとして制限し、ローカルフレームで表現を学ぶ。
両方の問題を解決するモデルを提案する。
複数のモードに対して,実数値非容積保存(realnvp)変換に基づく密度推定法を用いて,運動軌跡の局所的潜在表現を学習することを提案する。
外挿能力を向上させるために、タスク実行中にロボットの注意を1つのローカルフレームから別のフレームにシフトすることを提案する。
実験では、衝突することなく2つのdockerを接続するために軌道を生成する必要がある以前の作業でも、ドッキングの問題も考慮している。
タスクの複雑さを高め,提案手法が他の手法よりも優れていることを示す。
さらに,実際のロボット実験におけるアプローチを評価する。
関連論文リスト
- Affordance-based Robot Manipulation with Flow Matching [6.863932324631107]
本フレームワークは,ロボット操作のためのフローマッチングにより,相性モデル学習と軌道生成をシームレスに統合する。
評価の結果,提案手法は,言語プロンサによる手軽さを学習し,競争性能を向上することがわかった。
本フレームワークは,ロボット操作のためのフローマッチングにより,相性モデル学習と軌道生成をシームレスに統合する。
論文 参考訳(メタデータ) (2024-09-02T09:11:28Z) - Deciphering Movement: Unified Trajectory Generation Model for Multi-Agent [53.637837706712794]
任意の軌道をマスク入力として処理する統一軌道生成モデルUniTrajを提案する。
具体的には,空間特徴抽出のためのトランスフォーマーエンコーダ内に埋め込まれたゴースト空間マスキング(GSM)モジュールを導入する。
バスケットボール-U,サッカー-U,サッカー-Uの3つの実用的なスポーツゲームデータセットをベンチマークして評価を行った。
論文 参考訳(メタデータ) (2024-05-27T22:15:23Z) - DITTO: Demonstration Imitation by Trajectory Transformation [31.930923345163087]
そこで本研究では,RGB-Dビデオ録画による実演映像のワンショット模倣の問題に対処する。
本稿では,2段階のプロセスを提案する。第1段階では実演軌道をオフラインに抽出し,操作対象のセグメンテーションと,容器などの二次物体に対する相対運動を決定する。
オンライン軌道生成段階では、まず全ての物体を再検出し、次にデモ軌道を現在のシーンにワープし、ロボット上で実行します。
論文 参考訳(メタデータ) (2024-03-22T13:46:51Z) - One ACT Play: Single Demonstration Behavior Cloning with Action Chunking
Transformers [11.875194596371484]
人間は1つか2つのデモを見ただけで、複雑なタスクを完了させることを学ぶことができる。
我々の研究は、行動クローニングを使用して、人間の1つのデモンストレーションのみを与えられたタスクを学ぶことで、この能力をエミュレートすることを目指している。
本研究では,行動チャンキングエージェントが推論時に使用する時間的アンサンブル法に新たな付加法を開発した。
論文 参考訳(メタデータ) (2023-09-18T21:50:26Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Eliciting Compatible Demonstrations for Multi-Human Imitation Learning [16.11830547863391]
人間による実演からの模倣学習は、ロボット操作の学習ポリシーに対する強力なアプローチである。
自然の人間の行動は、タスクを示すのに最適な方法がいくつかあるため、多くの異種性を持っている。
このミスマッチは、インタラクティブな模倣学習の課題であり、ユーザのシーケンスは、新しい、おそらく矛盾するデモを反復的に収集することによって、ポリシーを改善する。
我々は、ポストホックフィルタリングにより互換性のないデモを識別し、新しいユーザから互換性のないデモを積極的に引き出すために互換性対策を適用することができることを示す。
論文 参考訳(メタデータ) (2022-10-14T19:37:55Z) - Human-in-the-Loop Imitation Learning using Remote Teleoperation [72.2847988686463]
6-DoF操作設定に合わせたデータ収集システムを構築します。
システムによって収集された新しいデータに基づいて,ポリシーを反復的にトレーニングするアルゴリズムを開発した。
介入型システムで収集したデータに基づいて訓練されたエージェントと、非介入型デモ参加者が収集した同等数のサンプルで訓練されたアルゴリズムを上回るエージェントを実証する。
論文 参考訳(メタデータ) (2020-12-12T05:30:35Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - Human Motion Transfer from Poses in the Wild [61.6016458288803]
人間の動き伝達の問題に対処し、基準映像からの動きを模倣する対象人物のための新しい動き映像を合成する。
推定ポーズを用いて2つのドメインをブリッジするビデオ間翻訳タスクである。
トレーニング中に見つからない線内ポーズシーケンスであっても、時間的に一貫性のある高品質なビデオを生成するための新しいポーズ・ツー・ビデオ翻訳フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-07T05:59:53Z) - Meta Adaptation using Importance Weighted Demonstrations [19.37671674146514]
エージェントが新しいタスクを推測することが困難である場合も少なくない。
本稿では,特定のタスクの集合に関する事前知識を活用することで,関連するタスクを一般化する新しいアルゴリズムを提案する。
環境タスクの多様性からロボットを訓練し、目に見えない環境に適応できる実験を行った。
論文 参考訳(メタデータ) (2019-11-23T07:22:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。