論文の概要: Conditional Neural Expert Processes for Learning from Demonstration
- arxiv url: http://arxiv.org/abs/2402.08424v1
- Date: Tue, 13 Feb 2024 12:52:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 15:32:05.414116
- Title: Conditional Neural Expert Processes for Learning from Demonstration
- Title(参考訳): 実演から学ぶための条件付き神経エキスパートプロセス
- Authors: Yigit Yildirim, Emre Ugur
- Abstract要約: 条件付きニューラルネットワークプロセス(CNEP)は、異なるモードから異なる専門家ネットワークにデモを割り当てることを学ぶ。
CNEPは、軌道がどのモードに属するかの監督を必要としない。
本稿では,CNEPモデルにより,新しい開始点と目的地点が提供されると,実際のマニピュレータによる障害物回避作業が達成されることを示す。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning from Demonstration (LfD) is a widely used technique for skill
acquisition in robotics. However, demonstrations of the same skill may exhibit
significant variances, or learning systems may attempt to acquire different
means of the same skill simultaneously, making it challenging to encode these
motions into movement primitives. To address these challenges, we propose an
LfD framework, namely the Conditional Neural Expert Processes (CNEP), that
learns to assign demonstrations from different modes to distinct expert
networks utilizing the inherent information within the latent space to match
experts with the encoded representations. CNEP does not require supervision on
which mode the trajectories belong to. Provided experiments on artificially
generated datasets demonstrate the efficacy of CNEP. Furthermore, we compare
the performance of CNEP with another LfD framework, namely Conditional Neural
Movement Primitives (CNMP), on a range of tasks, including experiments on a
real robot. The results reveal enhanced modeling performance for movement
primitives, leading to the synthesis of trajectories that more accurately
reflect those demonstrated by experts, particularly when the model inputs
include intersection points from various trajectories. Additionally, CNEP
offers improved interpretability and faster convergence by promoting expert
specialization. Furthermore, we show that the CNEP model accomplishes obstacle
avoidance tasks with a real manipulator when provided with novel start and
destination points, in contrast to the CNMP model, which leads to collisions
with the obstacle.
- Abstract(参考訳): Learning from Demonstration (LfD)は、ロボット工学のスキル獲得に広く使われている技術である。
しかし、同じスキルのデモンストレーションは重大なばらつきを示す可能性があり、学習システムは同時に同じスキルの異なる手段を取得しようとする可能性があり、これらの動きを運動プリミティブにエンコードすることが難しくなる。
これらの課題に対処するため,我々は,異なるモードからのデモンストレーションを異なる専門家ネットワークに割り当てることを学ぶ条件付きニューラルネットワークエキスパートプロセス(conditional neural expert process, cnep)というlfdフレームワークを提案する。
CNEPは、軌道がどのモードに属するかの監督を必要としない。
人工的に生成されたデータセットに関する実験は、CNEPの有効性を示す。
さらに,CNEPと他のLfDフレームワーク,すなわち条件付きニューラル・ムーブメント・プリミティブ(CNMP)の性能を,実際のロボットの実験を含む様々なタスクで比較した。
その結果, 運動プリミティブのモデリング性能が向上し, モデル入力が様々な軌跡の交点を含む場合, 専門家がより正確に示す軌跡を反映した軌跡の合成が可能となった。
さらに、cnepは専門家の専門化を促進することによって、解釈性の向上と収束の高速化を提供する。
さらに,CNMPモデルとは対照的に,CNEPモデルでは,新たな開始点と目的地点を設けると,実際のマニピュレータによる障害物回避タスクが達成されることを示す。
関連論文リスト
- The Common Stability Mechanism behind most Self-Supervised Learning
Approaches [64.40701218561921]
自己指導型学習手法の安定性のメカニズムを説明するための枠組みを提供する。
我々は,BYOL,SWAV,SimSiam,Barlow Twins,DINOなどの非コントラスト技術であるSimCLRの動作メカニズムについて議論する。
私たちは異なる仮説を定式化し、Imagenet100データセットを使ってそれらをテストします。
論文 参考訳(メタデータ) (2024-02-22T20:36:24Z) - Enhancing Explainability in Mobility Data Science through a combination
of methods [0.08192907805418582]
本稿では,重要なXAI技法を調和させる包括的フレームワークを提案する。
LIME Interpretable Model-a-gnostic Explanations, SHAP, Saliency Map, attention mechanism, direct trajectory Visualization, and Permutation Feature (PFI)
本研究の枠組みを検証するため,様々な利用者の嗜好や受容度を評価する調査を行った。
論文 参考訳(メタデータ) (2023-12-01T07:09:21Z) - Layer-wise Feedback Propagation [53.00944147633484]
本稿では、ニューラルネットワークのような予測器のための新しいトレーニング手法であるLFP(Layer-wise Feedback Propagation)を提案する。
LFPは、与えられたタスクの解決に対するそれぞれの貢献に基づいて、個々のコネクションに報酬を割り当てる。
各種モデルやデータセットの勾配降下に匹敵する性能を達成できることの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Artificial-Spiking Hierarchical Networks for Vision-Language
Representation Learning [16.902924543372713]
最先端の手法は、大規模データセットの事前トレーニングによって、素晴らしいパフォーマンスを達成する。
本稿では,新しい視覚的セマンティックモジュールを導入することで,マルチモーダルアライメントのための効率的なフレームワークを提案する。
実験の結果、提案されたASH-Netsは競合する結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-18T10:40:25Z) - Evaluating the structure of cognitive tasks with transfer learning [67.22168759751541]
本研究では,脳波復号処理における深層学習表現の伝達可能性について検討した。
最近リリースされた2つのEEGデータセット上で、最先端デコードモデルを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2023-07-28T14:51:09Z) - UniDiff: Advancing Vision-Language Models with Generative and
Discriminative Learning [86.91893533388628]
本稿では、画像テキストコントラスト学習(ITC)、テキスト条件付き画像合成学習(IS)、相互意味整合性モデリング(RSC)を統合した統合マルチモーダルモデルUniDiffを提案する。
UniDiffはマルチモーダル理解と生成タスクの両方において汎用性を示す。
論文 参考訳(メタデータ) (2023-06-01T15:39:38Z) - Imitation from Observation With Bootstrapped Contrastive Learning [12.048166025000976]
IfO(IfO)は、マルコフ決定プロセスにおいて自律エージェントを訓練する学習パラダイムである。
本稿では,OfOアルゴリズムであるBootIfOLについて紹介する。
我々は,限られた数の実証軌道を用いて効果的な政策を訓練できることを示す,様々な制御タスクに対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-02-13T17:32:17Z) - Adaptive Trajectory Prediction via Transferable GNN [74.09424229172781]
本稿では,トランジタブルグラフニューラルネットワーク(Transferable Graph Neural Network, T-GNN)フレームワークを提案する。
具体的には、ドメイン固有知識が減少する構造運動知識を探索するために、ドメイン不変GNNを提案する。
さらに,注目に基づく適応的知識学習モジュールを提案し,知識伝達のための詳細な個別レベルの特徴表現について検討した。
論文 参考訳(メタデータ) (2022-03-09T21:08:47Z) - Hierarchically Decoupled Spatial-Temporal Contrast for Self-supervised
Video Representation Learning [6.523119805288132]
a) 学習対象を2つの対照的なサブタスクに分解し、空間的特徴と時間的特徴を強調し、(b) 階層的にそれを実行し、マルチスケールな理解を促進する。
論文 参考訳(メタデータ) (2020-11-23T08:05:39Z) - Soft Expert Reward Learning for Vision-and-Language Navigation [94.86954695912125]
VLN(Vision-and-Language Navigation)は、エージェントが自然言語の指示に従うことで、目に見えない環境で特定の場所を見つける必要がある。
本稿では,VLNタスクの工学的設計と一般化問題を克服するために,ソフトエキスパート・リワード・ラーニング(SERL)モデルを導入する。
論文 参考訳(メタデータ) (2020-07-21T14:17:36Z) - ACNMP: Skill Transfer and Task Extrapolation through Learning from
Demonstration and Reinforcement Learning via Representation Sharing [5.06461227260756]
ACNMPは、異なる形態を持つロボット間のスキル伝達を実装するために使用できる。
本稿では,実際のロボット実験を通して,ACNMPの現実的適合性を示す。
論文 参考訳(メタデータ) (2020-03-25T11:28:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。