論文の概要: Single-Shot Motion Completion with Transformer
- arxiv url: http://arxiv.org/abs/2103.00776v1
- Date: Mon, 1 Mar 2021 06:00:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 16:06:41.284031
- Title: Single-Shot Motion Completion with Transformer
- Title(参考訳): 変圧器による単発モーション補完
- Authors: Yinglin Duan (1), Tianyang Shi (1), Zhengxia Zou (2), Yenan Lin (3),
Zhehui Qian (3), Bohan Zhang (3), Yi Yuan (1) ((1) NetEase Fuxi AI Lab, (2)
University of Michigan, (3) NetEase)
- Abstract要約: 本論文では,複数の動作完了問題を解決するための簡易かつ効果的な手法を提案する。
注意に基づくモデルの最近の大きな成功に触発されて、完成はシーケンス予測問題に対するシーケンスであると考える。
本手法は非自己回帰的に動作し,単一のフォワード伝搬内で複数フレームの欠落をリアルタイムに予測する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion completion is a challenging and long-discussed problem, which is of
great significance in film and game applications. For different motion
completion scenarios (in-betweening, in-filling, and blending), most previous
methods deal with the completion problems with case-by-case designs. In this
work, we propose a simple but effective method to solve multiple motion
completion problems under a unified framework and achieves a new state of the
art accuracy under multiple evaluation settings. Inspired by the recent great
success of attention-based models, we consider the completion as a sequence to
sequence prediction problem. Our method consists of two modules - a standard
transformer encoder with self-attention that learns long-range dependencies of
input motions, and a trainable mixture embedding module that models temporal
information and discriminates key-frames. Our method can run in a
non-autoregressive manner and predict multiple missing frames within a single
forward propagation in real time. We finally show the effectiveness of our
method in music-dance applications.
- Abstract(参考訳): モーションコンプリートは、映画やゲームアプリケーションにとって非常に重要な課題であり、長い間議論されてきた問題です。
異なるモーションコンプリートシナリオ(イントゥイニング、インフィル、ブレンディング)の場合、以前のほとんどのメソッドはケースバイケースの設計におけるコンプリートの問題に対処する。
本研究では、複数の動作完了問題を統一した枠組みで解くためのシンプルで効果的な方法を提案し、複数の評価設定で新たな芸術的精度を実現する。
注意に基づくモデルの最近の大きな成功に触発されて、完成はシーケンス予測問題に対するシーケンスであると考える。
本手法は,入力動作の長距離依存性を学習するセルフアテンションを持つ標準トランスコーダと,時間情報をモデル化し,キーフレームを識別する訓練可能な混合埋め込みモジュールの2つのモジュールからなる。
本手法は非自己回帰的に動作し,単一のフォワード伝搬内で複数フレームの欠落をリアルタイムに予測する。
音楽ダンスの応用において,本手法の有効性を実証した。
関連論文リスト
- Human Motion Synthesis_ A Diffusion Approach for Motion Stitching and In-Betweening [2.5165775267615205]
本研究では,現実的な人間の動きを生成するための変圧器を用いた拡散モデルを提案する。
提案手法は, 中間配列の生成において高い性能を示した。
本稿では,Frechet Inception Distance(FID),Diversity,Multimodalityなどの定量的指標を用いて,本手法の性能評価を行った。
論文 参考訳(メタデータ) (2024-09-10T18:02:32Z) - Deciphering Movement: Unified Trajectory Generation Model for Multi-Agent [53.637837706712794]
任意の軌道をマスク入力として処理する統一軌道生成モデルUniTrajを提案する。
具体的には,空間特徴抽出のためのトランスフォーマーエンコーダ内に埋め込まれたゴースト空間マスキング(GSM)モジュールを導入する。
バスケットボール-U,サッカー-U,サッカー-Uの3つの実用的なスポーツゲームデータセットをベンチマークして評価を行った。
論文 参考訳(メタデータ) (2024-05-27T22:15:23Z) - MotionMix: Weakly-Supervised Diffusion for Controllable Motion
Generation [19.999239668765885]
MotionMixはノイズと無注釈の両方のモーションシーケンスを利用する弱い教師付き拡散モデルである。
我々のフレームワークは、テキスト・トゥ・モーション、アクション・トゥ・モーション、音楽・トゥ・ダンスのタスクにおける最先端のパフォーマンスを一貫して達成する。
論文 参考訳(メタデータ) (2024-01-20T04:58:06Z) - Motion Flow Matching for Human Motion Synthesis and Editing [75.13665467944314]
本研究では,効率的なサンプリングと効率性を備えた人体運動生成のための新しい生成モデルであるemphMotion Flow Matchingを提案する。
提案手法は, 従来の拡散モデルにおいて, サンプリングの複雑さを1000ステップから10ステップに減らし, テキスト・ツー・モーション・ジェネレーション・ベンチマークやアクション・ツー・モーション・ジェネレーション・ベンチマークで同等の性能を実現する。
論文 参考訳(メタデータ) (2023-12-14T12:57:35Z) - Shuffled Autoregression For Motion Interpolation [53.61556200049156]
この作業は、モーションタスクのためのディープラーニングソリューションを提供することを目的としている。
本稿では,自己回帰を任意の(シャッフルされた)順序で生成するために拡張する,emphShuffled AutoRegressionと呼ばれる新しいフレームワークを提案する。
また,3つのステージを終端から終端の時空間運動変換器に組み込んだ依存グラフの構築手法を提案する。
論文 参考訳(メタデータ) (2023-06-10T07:14:59Z) - HumanMAC: Masked Motion Completion for Human Motion Prediction [62.279925754717674]
人間の動き予測はコンピュータビジョンとコンピュータグラフィックスの古典的な問題である。
従来の効果はエンコーディング・デコード方式に基づく経験的性能を実現している。
本稿では,新しい視点から新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-07T18:34:59Z) - Animation from Blur: Multi-modal Blur Decomposition with Motion Guidance [83.25826307000717]
単一の動き赤画像から詳細な動きを復元する際の課題について検討する。
既存の解法では、各領域の運動のあいまいさを考慮せずに単一の画像列を推定する。
本稿では、このような動きのあいまいさを明示的に説明し、複数の可算解をシャープな詳細で生成することができる。
論文 参考訳(メタデータ) (2022-07-20T18:05:53Z) - Real-time Controllable Motion Transition for Characters [14.88407656218885]
リアルタイムの動作生成はゲームでは普遍的に必要であり、既存のアニメーションパイプラインでは非常に望ましい。
我々のアプローチは、運動多様体と条件遷移という2つの重要な構成要素から構成される。
提案手法は,複数の測定基準の下で測定された高品質な動きを生成できることを示す。
論文 参考訳(メタデータ) (2022-05-05T10:02:54Z) - Learning Salient Boundary Feature for Anchor-free Temporal Action
Localization [81.55295042558409]
時間的行動のローカライゼーションはビデオ理解において重要な課題である。
純粋にアンカーフリーな時間的定位法を初めて提案する。
このモデルには,(i)エンドツーエンドのトレーニング可能な基本予測器,(ii)サリエンシベースのリファインメントモジュール,(iii)いくつかの一貫性制約が含まれている。
論文 参考訳(メタデータ) (2021-03-24T12:28:32Z) - Convolutional Autoencoders for Human Motion Infilling [37.16099544563645]
モーションインフィルメントは、入力されたポーズがスタートシーケンスを確実に予測し、エンドシーケンスに自然に遷移するような、欠落したギャップを埋めることを目的としている。
一つのモデルを用いて、異なるタイプのアクティビティ間の自然な遷移を生成できることが示される。
提案手法は, 欠落フレーム全体を埋めるだけでなく, 部分的なポーズが利用できるようなギャップを埋めるのにも利用できる。
論文 参考訳(メタデータ) (2020-10-22T08:45:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。