論文の概要: Conditional Neural Expert Processes for Learning Movement Primitives from Demonstration
- arxiv url: http://arxiv.org/abs/2402.08424v2
- Date: Sat, 6 Jul 2024 09:40:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 02:38:52.681429
- Title: Conditional Neural Expert Processes for Learning Movement Primitives from Demonstration
- Title(参考訳): デモから学ぶ運動原始者のための条件付きニューラルエキスパートプロセス
- Authors: Yigit Yildirim, Emre Ugur,
- Abstract要約: 条件付きニューラルネットワークプロセス(CNEP)は、異なるモードから異なる専門家ネットワークにデモを割り当てることを学ぶ。
CNEPは、軌道がどのモードに属するかの監督を必要としない。
本システムは,オンラインコンディショニング機構を用いて,環境変化へのオンザフライ適応が可能なシステムである。
- 参考スコア(独自算出の注目度): 1.9336815376402723
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning from Demonstration (LfD) is a widely used technique for skill acquisition in robotics. However, demonstrations of the same skill may exhibit significant variances, or learning systems may attempt to acquire different means of the same skill simultaneously, making it challenging to encode these motions into movement primitives. To address these challenges, we propose an LfD framework, namely the Conditional Neural Expert Processes (CNEP), that learns to assign demonstrations from different modes to distinct expert networks utilizing the inherent information within the latent space to match experts with the encoded representations. CNEP does not require supervision on which mode the trajectories belong to. We compare the performance of CNEP against widely used and powerful LfD methods such as Gaussian Mixture Models, Probabilistic Movement Primitives, and Stable Movement Primitives and show that our method outperforms these baselines on multimodal trajectory datasets. The results reveal enhanced modeling performance for movement primitives, leading to the synthesis of trajectories that more accurately reflect those demonstrated by experts, particularly when the skill demonstrations include intersection points from various trajectories. We evaluated the CNEP model on two real-robot tasks, namely obstacle avoidance and pick-and-place tasks, that require the robot to learn multi-modal motion trajectories and execute the correct primitives given target environment conditions. We also showed that our system is capable of on-the-fly adaptation to environmental changes via an online conditioning mechanism. Lastly, we believe that CNEP offers improved explainability and interpretability by autonomously finding discrete behavior primitives and providing probability values about its expert selection decisions.
- Abstract(参考訳): Learning from Demonstration (LfD)は、ロボット工学のスキル獲得に広く使われている技術である。
しかし、同じスキルのデモンストレーションは大きなばらつきを示すかもしれないし、学習システムは同じスキルの異なる手段を同時に獲得しようとするかもしれないため、これらの動きを運動プリミティブにエンコードすることは困難である。
これらの課題に対処するために、LfDフレームワーク、すなわち条件付きニューラルネットワーク(CNEP)を提案する。このフレームワークは、符号化された表現と専門家を一致させるために、潜時空間内の固有情報を利用して、異なるモードから異なる専門家ネットワークにデモンストレーションを割り当てることを学ぶ。
CNEPは、軌道がどのモードに属するかの監督を必要としない。
我々は,CNEPの性能をガウス混合モデル,確率運動プリミティブ,安定運動プリミティブなどの広範で強力なLfD手法と比較し,これらのベースラインをマルチモーダルトラジェクトリデータセットで上回ることを示す。
その結果,運動プリミティブのモデリング性能が向上し,特に各種軌道の交叉点を含む技術実演において,専門家が証明したものをより正確に反映した軌跡の合成が可能となった。
我々は,障害物回避タスクとピック・アンド・プレイスタスクの2つの実ロボットタスクにおけるCNEPモデルの評価を行った。
また,本システムでは,オンラインコンディショニング機構を用いて環境変化をオンザフライで適応できることを示した。
最後に、CNEPは、個別の行動プリミティブを自律的に発見し、専門家の選択決定に関する確率値を提供することにより、説明可能性と解釈可能性を改善していると信じている。
関連論文リスト
- Causality-Aware Transformer Networks for Robotic Navigation [13.719643934968367]
Visual Navigationの現在の研究は、改善の機会を明らかにしている。
RNNとTransformerの直接的な採用はしばしば、Embodied AIと従来のシーケンシャルなデータモデリングの具体的な違いを見落としている。
因果理解モジュールを特徴とするナビゲーション用因果認識変換器(CAT)ネットワークを提案する。
論文 参考訳(メタデータ) (2024-09-04T12:53:26Z) - MMA-DFER: MultiModal Adaptation of unimodal models for Dynamic Facial Expression Recognition in-the-wild [81.32127423981426]
実世界のアプリケーションでは,音声およびビデオデータに基づくマルチモーダル感情認識が重要である。
近年の手法は、強力なマルチモーダルエンコーダの事前学習に自己教師付き学習(SSL)の進歩を活用することに重点を置いている。
SSL-pre-trained disimodal encoders を用いて,この問題に対する異なる視点とマルチモーダル DFER の性能向上について検討する。
論文 参考訳(メタデータ) (2024-04-13T13:39:26Z) - Intuition-aware Mixture-of-Rank-1-Experts for Parameter Efficient Finetuning [50.73666458313015]
大規模言語モデル(LLM)はマルチメディアアプリケーションで複数のタスクを実行する上で大きな可能性を証明している。
MoEは、効率的なタスクデカップリングのためのスパースアーキテクチャによる有望なソリューションとして登場した。
Intuition-MoR1Eは14のパブリックデータセットで優れた効率と2.15%の全体的な精度向上を実現している。
論文 参考訳(メタデータ) (2024-04-13T12:14:58Z) - The Common Stability Mechanism behind most Self-Supervised Learning
Approaches [64.40701218561921]
自己指導型学習手法の安定性のメカニズムを説明するための枠組みを提供する。
我々は,BYOL,SWAV,SimSiam,Barlow Twins,DINOなどの非コントラスト技術であるSimCLRの動作メカニズムについて議論する。
私たちは異なる仮説を定式化し、Imagenet100データセットを使ってそれらをテストします。
論文 参考訳(メタデータ) (2024-02-22T20:36:24Z) - Exploring Model Transferability through the Lens of Potential Energy [78.60851825944212]
トランスファーラーニングは、事前訓練されたディープラーニングモデルが広く利用可能であることから、コンピュータビジョンタスクにおいて重要になっている。
既存のトレーニング済みモデルの転送可能性の測定方法は、符号化された静的特徴とタスクラベルの間の統計的相関に依存する。
我々はこれらの課題に対処するために,PEDという物理に着想を得たアプローチを提案する。
論文 参考訳(メタデータ) (2023-08-29T07:15:57Z) - Learning Representative Trajectories of Dynamical Systems via
Domain-Adaptive Imitation [0.0]
ドメイン適応軌道模倣のための深層強化学習エージェントDATIを提案する。
実験の結果,DATIは模擬学習と最適制御のベースライン手法よりも優れていることがわかった。
実世界のシナリオへの一般化は、海上交通における異常な動きパターンの発見を通じて示される。
論文 参考訳(メタデータ) (2023-04-19T15:53:48Z) - Imitation from Observation With Bootstrapped Contrastive Learning [12.048166025000976]
IfO(IfO)は、マルコフ決定プロセスにおいて自律エージェントを訓練する学習パラダイムである。
本稿では,OfOアルゴリズムであるBootIfOLについて紹介する。
我々は,限られた数の実証軌道を用いて効果的な政策を訓練できることを示す,様々な制御タスクに対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-02-13T17:32:17Z) - Adaptive Trajectory Prediction via Transferable GNN [74.09424229172781]
本稿では,トランジタブルグラフニューラルネットワーク(Transferable Graph Neural Network, T-GNN)フレームワークを提案する。
具体的には、ドメイン固有知識が減少する構造運動知識を探索するために、ドメイン不変GNNを提案する。
さらに,注目に基づく適応的知識学習モジュールを提案し,知識伝達のための詳細な個別レベルの特徴表現について検討した。
論文 参考訳(メタデータ) (2022-03-09T21:08:47Z) - Learning Transferable Motor Skills with Hierarchical Latent Mixture
Policies [37.09286945259353]
階層的混合潜時変動モデルを用いて,データから抽象運動スキルを学習する手法を提案する。
提案手法は,オフラインデータを異なる実行動作に効果的にクラスタ化することができることを示す。
論文 参考訳(メタデータ) (2021-12-09T17:37:14Z) - Visual Adversarial Imitation Learning using Variational Models [60.69745540036375]
逆関数仕様は、深い強化学習を通しての学習行動にとって大きな障害であり続けている。
望ましい行動の視覚的なデモンストレーションは、エージェントを教えるためのより簡単で自然な方法を示すことが多い。
変動モデルに基づく対向的模倣学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-07-16T00:15:18Z) - ACNMP: Skill Transfer and Task Extrapolation through Learning from
Demonstration and Reinforcement Learning via Representation Sharing [5.06461227260756]
ACNMPは、異なる形態を持つロボット間のスキル伝達を実装するために使用できる。
本稿では,実際のロボット実験を通して,ACNMPの現実的適合性を示す。
論文 参考訳(メタデータ) (2020-03-25T11:28:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。