論文の概要: A Motion Taxonomy for Manipulation Embedding
- arxiv url: http://arxiv.org/abs/2007.06695v1
- Date: Mon, 13 Jul 2020 21:14:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 00:41:46.545983
- Title: A Motion Taxonomy for Manipulation Embedding
- Title(参考訳): 埋め込み操作のための運動分類法
- Authors: David Paulius, Nicholas Eales and Yu Sun
- Abstract要約: 本稿では,運動分類学を用いた動作埋め込みについて検討する。
モーションコードは、接触型や軌道のような機械的特性を捉えている。
動作符号は操作の現実と密に一致した距離を保っていることを示す。
- 参考スコア(独自算出の注目度): 8.651301326454496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To represent motions from a mechanical point of view, this paper explores
motion embedding using the motion taxonomy. With this taxonomy, manipulations
can be described and represented as binary strings called motion codes. Motion
codes capture mechanical properties, such as contact type and trajectory, that
should be used to define suitable distance metrics between motions or loss
functions for deep learning and reinforcement learning. Motion codes can also
be used to consolidate aliases or cluster motion types that share similar
properties. Using existing data sets as a reference, we discuss how motion
codes can be created and assigned to actions that are commonly seen in
activities of daily living based on intuition as well as real data. Motion
codes are compared to vectors from pre-trained Word2Vec models, and we show
that motion codes maintain distances that closely match the reality of
manipulation.
- Abstract(参考訳): 機械的観点からの動作を表現するため,運動分類学を用いた動作埋め込みについて検討する。
この分類法では、操作を動き符号と呼ばれる二進文字列として記述し表現することができる。
モーションコードは、ディープラーニングや強化学習のための動きや損失関数間の適切な距離メトリクスを定義するために使用される、コンタクトタイプや軌道などの機械的特性をキャプチャする。
モーションコードは、同様の特性を持つエイリアスやクラスタモーションタイプを統合するためにも使用できる。
既存のデータセットを参考に,実データと同様に直感に基づく日常生活活動において一般的に見られる行動に対して,動作コードを作成し,割り当てる方法について検討する。
動作符号は、事前訓練されたWord2Vecモデルのベクトルと比較し、動作符号が操作の現実によく一致する距離を維持することを示す。
関連論文リスト
- CoMo: Controllable Motion Generation through Language Guided Pose Code Editing [57.882299081820626]
本稿では,制御可能なモーション生成モデルであるCoMoについて紹介する。
CoMoは、動きを離散的で意味のあるポーズコードに分解する。
自動的にポーズコードのシーケンスを生成し、それを3Dモーションにデコードする。
論文 参考訳(メタデータ) (2024-03-20T18:11:10Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - CALM: Conditional Adversarial Latent Models for Directable Virtual
Characters [71.66218592749448]
本研究では,ユーザが制御する対話型仮想キャラクタに対して,多種多様かつ指示可能な振る舞いを生成するための条件付き適応潜在モデル(CALM)を提案する。
模倣学習を用いて、CALMは人間の動きの複雑さを捉える動きの表現を学び、キャラクターの動きを直接制御できる。
論文 参考訳(メタデータ) (2023-05-02T09:01:44Z) - Unsupervised Multi-object Segmentation by Predicting Probable Motion
Patterns [92.80981308407098]
手動による監督なしに複数の画像オブジェクトを分割する手法を提案する。
この方法は静止画像からオブジェクトを抽出するが、監視のためにビデオを使用する。
シミュレーションおよび実世界のベンチマークで、最先端の教師なしオブジェクトセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2022-10-21T17:57:05Z) - Unsupervised Motion Representation Learning with Capsule Autoencoders [54.81628825371412]
Motion Capsule Autoencoder (MCAE) は、2レベル階層のモーションをモデル化する。
MCAEは、新しいTrajectory20モーションデータセットと、様々な現実世界の骨格に基づく人間のアクションデータセットで評価されている。
論文 参考訳(メタデータ) (2021-10-01T16:52:03Z) - AMP: Adversarial Motion Priors for Stylized Physics-Based Character
Control [145.61135774698002]
我々は,与えられたシナリオで追跡するキャラクタの動作を選択するための完全自動化手法を提案する。
キャラクタが実行するべきハイレベルなタスク目標は、比較的単純な報酬関数によって指定できる。
キャラクタの動作の低レベルスタイルは、非構造化モーションクリップのデータセットによって指定できる。
本システムでは,最先端のトラッキング技術に匹敵する高品質な動作を生成する。
論文 参考訳(メタデータ) (2021-04-05T22:43:14Z) - Self-supervised Motion Learning from Static Images [36.85209332144106]
Motion from Static Images (MoSI) はモーション情報をエンコードすることを学ぶ。
MoSIは、下流のデータセットを微調整することなく、大きな動きを持つ領域を発見することができる。
下流のデータセットを微調整することなく、MoSIが大きな動きを持つ領域を発見できることを実証します。
論文 参考訳(メタデータ) (2021-04-01T03:55:50Z) - Character Controllers Using Motion VAEs [9.806910643086045]
動きのvaesを用いて,人間の運動のデータ駆動生成モデルを学ぶ。
計画や制御アルゴリズムは、このアクション空間を使って望ましい動きを生成することができる。
論文 参考訳(メタデータ) (2021-03-26T05:51:41Z) - Developing Motion Code Embedding for Action Recognition in Videos [5.400294730456784]
動きのベクトル化表現である動き符号(motion codes)と呼ばれる動き埋め込み戦略を提案する。
我々は、視覚的特徴と意味的特徴を組み合わせたディープニューラルネットワークモデルを開発し、運動分類学で見られる特徴を特定し、動画をモーションコードに埋め込みました。
機械学習タスクの機能としての動作符号の可能性を示すために,抽出した特徴を現在の動作認識モデルに統合した。
論文 参考訳(メタデータ) (2020-12-10T03:49:23Z) - Estimating Motion Codes from Demonstration Videos [8.651301326454496]
運動分類学は、操作をバイナリエンコードされた表現としてエンコードすることができる。
運動符号は、本来は運動の機械的特徴を記述する組込み空間における操作動作を表す。
本稿では,非教師付き方式でデモビデオから動作コードを抽出する深層学習パイプラインを開発する。
論文 参考訳(メタデータ) (2020-07-31T04:20:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。