論文の概要: Recognition and Synthesis of Object Transport Motion
- arxiv url: http://arxiv.org/abs/2009.12967v1
- Date: Sun, 27 Sep 2020 22:13:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 03:53:31.886873
- Title: Recognition and Synthesis of Object Transport Motion
- Title(参考訳): 物体輸送運動の認識と合成
- Authors: Connor Daly
- Abstract要約: このプロジェクトでは、小さなモーションキャプチャデータセット上で、特別なデータ拡張テクニックとともに、ディープ畳み込みネットワークをどのように使用できるかを説明します。
このプロジェクトは、運動合成のより複雑なタスクのために、これらの同じ拡張テクニックをどのようにスケールアップするかを示している。
近年のGAN(Generative Adversarial Models)の概念、特にWasserstein GAN(英語版)の展開を探求することにより、このプロジェクトは生命に似た物体の移動運動をうまく生成できるモデルの概要を述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning typically requires vast numbers of training examples in order
to be used successfully. Conversely, motion capture data is often expensive to
generate, requiring specialist equipment, along with actors to generate the
prescribed motions, meaning that motion capture datasets tend to be relatively
small. Motion capture data does however provide a rich source of information
that is becoming increasingly useful in a wide variety of applications, from
gesture recognition in human-robot interaction, to data driven animation.
This project illustrates how deep convolutional networks can be used,
alongside specialized data augmentation techniques, on a small motion capture
dataset to learn detailed information from sequences of a specific type of
motion (object transport). The project shows how these same augmentation
techniques can be scaled up for use in the more complex task of motion
synthesis.
By exploring recent developments in the concept of Generative Adversarial
Models (GANs), specifically the Wasserstein GAN, this project outlines a model
that is able to successfully generate lifelike object transportation motions,
with the generated samples displaying varying styles and transport strategies.
- Abstract(参考訳): ディープラーニングは一般的に、うまく利用するために、膨大な数のトレーニングサンプルを必要とする。
逆に、モーションキャプチャーデータの生成にはコストがかかることが多く、アクターが所定のモーションを生成するために特別な機器を必要とするため、モーションキャプチャーデータセットは比較的小さい傾向にある。
しかし、モーションキャプチャーデータは、人間とロボットのインタラクションにおけるジェスチャー認識からデータ駆動アニメーションまで、さまざまなアプリケーションでますます有用になりつつあるリッチな情報ソースを提供する。
このプロジェクトは、特定の種類の動き(オブジェクト転送)のシーケンスから詳細な情報を学習するための小さなモーションキャプチャデータセット上で、特殊なデータ拡張技術とともに、深い畳み込みネットワークをどのように使用できるかを示す。
このプロジェクトでは、モーション合成のより複雑なタスクで、これら同じ拡張テクニックをスケールアップする方法が示されています。
本研究は,GAN(Generative Adversarial Models)の概念,特にWasserstein GAN(英語版)の概念の最近の発展を探求することによって,様々なスタイルや輸送戦略を示すサンプルを用いて,生物のような物体の移動運動をうまく生成できるモデルを概説する。
関連論文リスト
- MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - HabitatDyn Dataset: Dynamic Object Detection to Kinematics Estimation [16.36110033895749]
本稿では,合成RGBビデオ,セマンティックラベル,深度情報,および運動情報を含むデータセットHabitatDynを提案する。
HabitatDynは移動カメラを搭載した移動ロボットの視点で作られ、6種類の移動物体をさまざまな速度で撮影する30のシーンを含んでいる。
論文 参考訳(メタデータ) (2023-04-21T09:57:35Z) - Multi-Scale Control Signal-Aware Transformer for Motion Synthesis
without Phase [72.01862340497314]
マルチスケール制御信号認識変換器(MCS-T)を提案する。
MCS-Tは補助情報を用いてメソッドが生成した動作に匹敵する動作をうまく生成できる。
論文 参考訳(メタデータ) (2023-03-03T02:56:44Z) - MoDi: Unconditional Motion Synthesis from Diverse Data [51.676055380546494]
多様な動きを合成する無条件生成モデルであるMoDiを提案する。
我々のモデルは、多様な、構造化されていない、ラベルなしのモーションデータセットから完全に教師なしの設定で訓練されている。
データセットに構造が欠けているにもかかわらず、潜在空間は意味的にクラスタ化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T09:06:25Z) - Latent Image Animator: Learning to Animate Images via Latent Space
Navigation [11.286071873122658]
本稿では,構造表現の必要性を回避する自己教師型オートエンコーダであるLatent Image Animator(LIA)を紹介する。
LIAは、潜時空間における線形ナビゲーションにより画像をアニメーションするために合理化され、特に、潜時空間における符号の線形変位によって生成されたビデオ内の動きが構成される。
論文 参考訳(メタデータ) (2022-03-17T02:45:34Z) - EAN: Event Adaptive Network for Enhanced Action Recognition [66.81780707955852]
本稿では,映像コンテンツの動的性質を調査するための統合された行動認識フレームワークを提案する。
まず、局所的な手がかりを抽出する際に、動的スケールの時空間カーネルを生成し、多様な事象を適応的に適合させる。
第2に、これらのキューを正確にグローバルなビデオ表現に集約するために、トランスフォーマーによって選択されたいくつかの前景オブジェクト間のインタラクションのみをマイニングすることを提案する。
論文 参考訳(メタデータ) (2021-07-22T15:57:18Z) - Property-Aware Robot Object Manipulation: a Generative Approach [57.70237375696411]
本研究では,操作対象の隠れた特性に適応したロボットの動きを生成する方法に焦点を当てた。
本稿では,ジェネレーティブ・アドバイサル・ネットワークを利用して,オブジェクトの特性に忠実な新しいアクションを合成する可能性について検討する。
以上の結果から,ジェネレーティブ・アドバイサル・ネットは,新規かつ有意義な輸送行動を生み出すための強力なツールとなる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-08T14:15:36Z) - AMP: Adversarial Motion Priors for Stylized Physics-Based Character
Control [145.61135774698002]
我々は,与えられたシナリオで追跡するキャラクタの動作を選択するための完全自動化手法を提案する。
キャラクタが実行するべきハイレベルなタスク目標は、比較的単純な報酬関数によって指定できる。
キャラクタの動作の低レベルスタイルは、非構造化モーションクリップのデータセットによって指定できる。
本システムでは,最先端のトラッキング技術に匹敵する高品質な動作を生成する。
論文 参考訳(メタデータ) (2021-04-05T22:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。