論文の概要: Deep Probabilistic Movement Primitives with a Bayesian Aggregator
- arxiv url: http://arxiv.org/abs/2307.05141v1
- Date: Tue, 11 Jul 2023 09:34:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-12 15:33:08.700793
- Title: Deep Probabilistic Movement Primitives with a Bayesian Aggregator
- Title(参考訳): ベイズアグリゲータを用いた深部確率的運動プリミティブ
- Authors: Michael Przystupa, Faezeh Haghverd, Martin Jagersand, Samuele Tosatto
- Abstract要約: 運動プリミティブは、限られたデモから始まるロボットの動きを再現する訓練可能なパラメトリックモデルである。
本稿では,上述のすべての操作を符号化し,ベイズ文脈アグリゲータを用いるディープ・ムーブメント・プリミティブ・アーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 3.097385298197292
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Movement primitives are trainable parametric models that reproduce robotic
movements starting from a limited set of demonstrations. Previous works
proposed simple linear models that exhibited high sample efficiency and
generalization power by allowing temporal modulation of movements (reproducing
movements faster or slower), blending (merging two movements into one),
via-point conditioning (constraining a movement to meet some particular
via-points) and context conditioning (generation of movements based on an
observed variable, e.g., position of an object). Previous works have proposed
neural network-based motor primitive models, having demonstrated their capacity
to perform tasks with some forms of input conditioning or time-modulation
representations. However, there has not been a single unified deep motor
primitive's model proposed that is capable of all previous operations, limiting
neural motor primitive's potential applications. This paper proposes a deep
movement primitive architecture that encodes all the operations above and uses
a Bayesian context aggregator that allows a more sound context conditioning and
blending. Our results demonstrate our approach can scale to reproduce complex
motions on a larger variety of input choices compared to baselines while
maintaining operations of linear movement primitives provide.
- Abstract(参考訳): 運動プリミティブは、限られたデモから始まるロボットの動きを再現する訓練可能なパラメトリックモデルである。
従来の研究では、動作の時間的変調(より早いか遅いか)、混合(2つの動きを1つにマージする)、介在点条件付け(ある特定の介在点を満たす運動を制限する)、文脈条件付け(例えば、観測変数に基づく動きの生成)を可能とし、高いサンプル効率と一般化力を示す単純な線形モデルが提案されていた。
従来の研究では、入力条件や時間変調表現でタスクを実行する能力を示したニューラルネットワークベースのモータープリミティブモデルが提案されていた。
しかしながら、ニューラルネットワークプリミティブの潜在的な用途を制限し、以前のすべての操作が可能な単一の統一されたディープモータープリミティブモデルが提案されていない。
本稿では,上述のすべての操作をエンコードし,より健全なコンテキストコンディショニングとブレンドを可能にするベイズコンテキストアグリゲータを用いたディープムーブメントプリミティブアーキテクチャを提案する。
提案手法は, 線形移動プリミティブの操作を維持しながら, ベースラインと比較して, 多様な入力選択の複雑な動作を再現できることを示す。
関連論文リスト
- Generalizable Implicit Motion Modeling for Video Frame Interpolation [51.966062283735596]
フローベースビデオフレーム補間(VFI)における動きの重要性
本稿では,動きモデリングVFIの新規かつ効果的なアプローチである一般インプリシット・モーション・モデリング(IMM)を紹介する。
我々のGIMMは、正確にモデル化された動きを供給することによって、既存のフローベースVFIワークと容易に統合できる。
論文 参考訳(メタデータ) (2024-07-11T17:13:15Z) - Motion Flow Matching for Human Motion Synthesis and Editing [75.13665467944314]
本研究では,効率的なサンプリングと効率性を備えた人体運動生成のための新しい生成モデルであるemphMotion Flow Matchingを提案する。
提案手法は, 従来の拡散モデルにおいて, サンプリングの複雑さを1000ステップから10ステップに減らし, テキスト・ツー・モーション・ジェネレーション・ベンチマークやアクション・ツー・モーション・ジェネレーション・ベンチマークで同等の性能を実現する。
論文 参考訳(メタデータ) (2023-12-14T12:57:35Z) - Evaluation of Differentially Constrained Motion Models for Graph-Based
Trajectory Prediction [1.1947990549568765]
本研究では,予測課題に対する数値解法と組み合わせた各種動作モデルの性能について検討する。
この研究は、低階積分子モデルのようなより単純なモデルは、正確な予測を達成するために、より複雑な、例えばキネマティックモデルよりも好まれることを示している。
論文 参考訳(メタデータ) (2023-04-11T10:15:20Z) - HumanMAC: Masked Motion Completion for Human Motion Prediction [62.279925754717674]
人間の動き予測はコンピュータビジョンとコンピュータグラフィックスの古典的な問題である。
従来の効果はエンコーディング・デコード方式に基づく経験的性能を実現している。
本稿では,新しい視点から新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-07T18:34:59Z) - Executing your Commands via Motion Diffusion in Latent Space [51.64652463205012]
本研究では,動作遅延に基づく拡散モデル(MLD)を提案し,条件付き入力に対応する鮮明な動き列を生成する。
我々のMDDは、広範囲な人体運動生成タスクにおいて、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-08T03:07:00Z) - NeMF: Neural Motion Fields for Kinematic Animation [6.570955948572252]
巨大な運動空間を時間とともに連続関数として表現するため、Neural Motion Fields (NeMF) と呼ぶ。
我々はニューラルネットワークを用いて、この関数をさまざまな動きの集合として学習する。
私たちは、その汎用性を証明するために、多様な人間の動きデータセットと四重組データセットでモデルをトレーニングします。
論文 参考訳(メタデータ) (2022-06-04T05:53:27Z) - Generating Smooth Pose Sequences for Diverse Human Motion Prediction [90.45823619796674]
本稿では,多様な動作予測と制御可能な動作予測のための統合された深部生成ネットワークを提案する。
標準ベンチマークデータセットであるHuman3.6MとHumanEva-Iの2つの実験は、我々のアプローチがサンプルの多様性と精度の両方において最先端のベースラインより優れていることを示した。
論文 参考訳(メタデータ) (2021-08-19T00:58:00Z) - MoCo-Flow: Neural Motion Consensus Flow for Dynamic Humans in Stationary
Monocular Cameras [98.40768911788854]
4次元連続時間変動関数を用いて動的シーンをモデル化する表現であるMoCo-Flowを紹介する。
私たちの研究の中心には、運動フロー上の運動コンセンサス正規化によって制約される、新しい最適化の定式化がある。
複雑度の異なる人間の動きを含む複数のデータセット上でMoCo-Flowを広範囲に評価した。
論文 参考訳(メタデータ) (2021-06-08T16:03:50Z) - Learning a Generative Motion Model from Image Sequences based on a
Latent Motion Matrix [8.774604259603302]
画像列の時間的登録をシミュレートして確率的動きモデルを学ぶ。
3つの最先端登録アルゴリズムと比較して,登録精度と時間的にスムーズな整合性が改善された。
また, フレームの欠落のあるシーケンスからの動作再構成を改良し, 動作解析, シミュレーション, 超解像に対するモデルの適用性を実証した。
論文 参考訳(メタデータ) (2020-11-03T14:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。