論文の概要: Conditional Motion In-betweening
- arxiv url: http://arxiv.org/abs/2202.04307v1
- Date: Wed, 9 Feb 2022 06:47:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 15:04:37.031050
- Title: Conditional Motion In-betweening
- Title(参考訳): 条件付き動作の中間
- Authors: Jihoon Kim, Taehyun Byun, Seungyoun Shin, Jungdam Won, Sungjoon Choi
- Abstract要約: モーション・イン・ビートワイニング(英: Motion in-betweening、MIB)とは、特定のスタートとターゲットのポーズの間の中間的な骨格の動きを生成する過程である。
我々は、統一モデルを用いて、ポーズやセマンティックなMIBタスクを処理できる手法に焦点を当てる。
また,ポーズ条件付きモーション生成の品質向上のための動き増強手法を提案する。
- 参考スコア(独自算出の注目度): 19.470778961694453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion in-betweening (MIB) is a process of generating intermediate skeletal
movement between the given start and target poses while preserving the
naturalness of the motion, such as periodic footstep motion while walking.
Although state-of-the-art MIB methods are capable of producing plausible
motions given sparse key-poses, they often lack the controllability to generate
motions satisfying the semantic contexts required in practical applications. We
focus on the method that can handle pose or semantic conditioned MIB tasks
using a unified model. We also present a motion augmentation method to improve
the quality of pose-conditioned motion generation via defining a distribution
over smooth trajectories. Our proposed method outperforms the existing
state-of-the-art MIB method in pose prediction errors while providing
additional controllability.
- Abstract(参考訳): モーション・イン・インタータリング(mib)は、歩行中の周期的な足踏み運動のような運動の自然性を維持しながら、与えられた開始と目標ポーズの間の中間骨格運動を生成する過程である。
最先端MIB法は、スパースキー目的に与えられた可塑性運動を生成できるが、実用的な応用に必要な意味的文脈を満たす動きを生成するための制御性に欠けることが多い。
我々は、統一モデルを用いて、ポーズやセマンティックなMIBタスクを処理できる手法に焦点を当てる。
また, 滑らかな軌跡上の分布を定義することにより, ポーズ条件付き運動生成の質を向上させる動き増進法を提案する。
提案手法はポーズ予測誤差において既存のmib法を上回り,制御性も向上した。
関連論文リスト
- MotionCLR: Motion Generation and Training-free Editing via Understanding Attention Mechanisms [12.621553130655945]
我々は,注目マップを操作することで,シンプルかつ効果的な動作編集手法を多目的に開発する。
提案手法は,優れた説明性を備えた優れた生成・編集能力を有する。
論文 参考訳(メタデータ) (2024-10-24T17:59:45Z) - Generalizable Implicit Motion Modeling for Video Frame Interpolation [51.966062283735596]
フローベースビデオフレーム補間(VFI)における動きの重要性
本稿では,動きモデリングVFIの新規かつ効果的なアプローチである一般インプリシット・モーション・モデリング(IMM)を紹介する。
我々のGIMMは、正確にモデル化された動きを供給することによって、既存のフローベースVFIワークと容易に統合できる。
論文 参考訳(メタデータ) (2024-07-11T17:13:15Z) - Flexible Motion In-betweening with Diffusion Models [16.295323675781184]
比較によって導かれる多様な人間の動きを生成する際の拡散モデルの可能性について検討する。
従来のインベントワイニング法とは異なり、精密かつ多様な動作を生成できる単純な統一モデルを提案する。
テキスト条件付きHumanML3Dデータセット上でのCondMDIの性能を評価する。
論文 参考訳(メタデータ) (2024-05-17T23:55:51Z) - MotionLCM: Real-time Controllable Motion Generation via Latent Consistency Model [29.93359157128045]
この研究は、制御可能なモーション生成をリアルタイムレベルに拡張するMotionLCMを導入している。
まず, 遅延拡散モデルに基づく動き生成のための動き潜時一貫性モデル (MotionLCM) を提案する。
一段階(もしくは数段階)の推論を採用することにより、動作生成のための動き潜伏拡散モデルの実行効率をさらに向上する。
論文 参考訳(メタデータ) (2024-04-30T17:59:47Z) - Motion-aware Latent Diffusion Models for Video Frame Interpolation [51.78737270917301]
隣接するフレーム間の動き推定は、動きのあいまいさを避ける上で重要な役割を担っている。
我々は、新しい拡散フレームワーク、動き認識潜在拡散モデル(MADiff)を提案する。
提案手法は,既存手法を著しく上回る最先端性能を実現する。
論文 参考訳(メタデータ) (2024-04-21T05:09:56Z) - Motion Flow Matching for Human Motion Synthesis and Editing [75.13665467944314]
本研究では,効率的なサンプリングと効率性を備えた人体運動生成のための新しい生成モデルであるemphMotion Flow Matchingを提案する。
提案手法は, 従来の拡散モデルにおいて, サンプリングの複雑さを1000ステップから10ステップに減らし, テキスト・ツー・モーション・ジェネレーション・ベンチマークやアクション・ツー・モーション・ジェネレーション・ベンチマークで同等の性能を実現する。
論文 参考訳(メタデータ) (2023-12-14T12:57:35Z) - Spatio-Temporal Branching for Motion Prediction using Motion Increments [55.68088298632865]
HMP(Human Motion Prediction)はその多種多様な応用により、人気のある研究トピックとして浮上している。
従来の手法は手作りの機能と機械学習技術に依存している。
HMPのためのインクリメンタル情報を用いた時空間分岐ネットワークを提案する。
論文 参考訳(メタデータ) (2023-08-02T12:04:28Z) - Guided Motion Diffusion for Controllable Human Motion Synthesis [18.660523853430497]
本稿では,空間的制約を運動生成プロセスに組み込む手法として,誘導運動拡散(GMD)を提案する。
具体的には、空間情報と局所的なポーズの一貫性を高めるために、動きの表現を操作する効果的な特徴投影方式を提案する。
本実験はGMDの開発を正当化し,テキストベースモーション生成における最先端手法を大幅に改善する。
論文 参考訳(メタデータ) (2023-05-21T21:54:31Z) - Data-Driven Stochastic Motion Evaluation and Optimization with Image by
Spatially-Aligned Temporal Encoding [8.104557130048407]
本稿では,長動きに対する確率的動き予測法を提案し,その動きが与えられた画像で観測された初期状態からタスクを達成できるように予測する。
本手法は空間的に時間的エンコーディングによって画像特徴領域に画像と動きデータをシームレスに統合する。
提案手法の有効性は, 同様のSOTA法を用いた様々な実験で実証された。
論文 参考訳(メタデータ) (2023-02-10T04:06:00Z) - MoFusion: A Framework for Denoising-Diffusion-based Motion Synthesis [73.52948992990191]
MoFusionは、高品質な条件付き人間のモーション合成のための新しいノイズ拡散ベースのフレームワークである。
本研究では,運動拡散フレームワーク内での運動可視性に対して,よく知られたキネマティック損失を導入する方法を提案する。
文献の確立されたベンチマークにおけるMoFusionの有効性を,技術の現状と比較した。
論文 参考訳(メタデータ) (2022-12-08T18:59:48Z) - Executing your Commands via Motion Diffusion in Latent Space [51.64652463205012]
本研究では,動作遅延に基づく拡散モデル(MLD)を提案し,条件付き入力に対応する鮮明な動き列を生成する。
我々のMDDは、広範囲な人体運動生成タスクにおいて、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-08T03:07:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。