論文の概要: Diverse Motion In-betweening with Dual Posture Stitching
- arxiv url: http://arxiv.org/abs/2303.14457v1
- Date: Sat, 25 Mar 2023 12:36:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 19:31:56.715980
- Title: Diverse Motion In-betweening with Dual Posture Stitching
- Title(参考訳): Dual Posture Stitching を用いた横方向運動の切り替え
- Authors: Tianxiang Ren, Jubo Yu, Shihui Guo, Ying Ma, Yutao Ouyang, Zijiao
Zeng, Yazhan Zhang, Yipeng Qin
- Abstract要約: In-betweeningは、初期およびターゲットの文字状態に与えられた遷移を生成する技術である。
我々は,開始フレームと終了フレームから前後の遷移を生成する双方向方式を実装した。
提案手法は,LaFAN1とHuman3.6mの両方のデータセットにおいて,既存の手法よりも高い動作品質と多様な結果が得られることを示す。
- 参考スコア(独自算出の注目度): 11.776629142119768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In-betweening is a technique for generating transitions given initial and
target character states. The majority of existing works require multiple (often
$>$10) frames as input, which are not always accessible. Our work deals with a
focused yet challenging problem: to generate the transition when given exactly
two frames (only the first and last). To cope with this challenging scenario,
we implement our bi-directional scheme which generates forward and backward
transitions from the start and end frames with two adversarial autoregressive
networks, and stitches them in the middle of the transition where there is no
strict ground truth. The autoregressive networks based on conditional
variational autoencoders (CVAE) are optimized by searching for a pair of
optimal latent codes that minimize a novel stitching loss between their
outputs. Results show that our method achieves higher motion quality and more
diverse results than existing methods on both the LaFAN1 and Human3.6m
datasets.
- Abstract(参考訳): In-betweeningは、初期状態とターゲット状態の遷移を生成する技術である。
既存の作業の大部分は入力として複数の(しばしば$10)フレームを必要とするが、必ずしもアクセスできない。
正確に2つのフレーム(最初と最後だけ)を与えられたときに、移行を生成することです。
この課題に対処するため,2つの対向自己回帰ネットワークを用いて,開始フレームと終了フレームから前後の遷移を生成し,厳密な基底真理が存在しない遷移の途中で縫合する双方向方式を実装した。
条件付き変分オートエンコーダ(CVAE)に基づく自己回帰ネットワークは、出力間の新たな縫合損失を最小限に抑える2つの最適潜時符号を探索することによって最適化される。
提案手法は,LaFAN1とHuman3.6mの両方のデータセットにおいて,既存の手法よりも高い動作品質と多様な結果が得られることを示す。
関連論文リスト
- Deciphering Movement: Unified Trajectory Generation Model for Multi-Agent [53.637837706712794]
任意の軌道をマスク入力として処理する統一軌道生成モデルUniTrajを提案する。
具体的には,空間特徴抽出のためのトランスフォーマーエンコーダ内に埋め込まれたゴースト空間マスキング(GSM)モジュールを導入する。
バスケットボール-U,サッカー-U,サッカー-Uの3つの実用的なスポーツゲームデータセットをベンチマークして評価を行った。
論文 参考訳(メタデータ) (2024-05-27T22:15:23Z) - Dual Adversarial Alignment for Realistic Support-Query Shift Few-shot
Learning [15.828113109152069]
Support-Query Shift Few-shot Learningは、低次元空間に埋め込まれた学習結果に基づいて、未確認例(クエリセット)をラベル付きデータ(サポートセット)に分類することを目的としている。
本稿では,現実的なサポートクエリシフト (Realistic Support-Query Shift) という,新しい難題を提案する。
さらに,DuaL(dual adversarial alignment framework)と呼ばれる一貫した対角的特徴アライメント手法を提案し,RSQSをドメイン間バイアスとドメイン内分散の2つの側面から緩和する。
論文 参考訳(メタデータ) (2023-09-05T09:50:31Z) - AMT: All-Pairs Multi-Field Transforms for Efficient Frame Interpolation [80.33846577924363]
ビデオフレームギスブのための新しいネットワークアーキテクチャであるAMT(All-Pairs Multi-Field Transforms)を提案する。
まず、すべての画素に対して双方向のボリュームを構築し、予測された両側フローを用いて相関関係を検索する。
第2に、入力フレーム上で逆向きのワープを行うために、一対の更新された粗い流れから細粒度の流れ場の複数のグループを導出する。
論文 参考訳(メタデータ) (2023-04-19T16:18:47Z) - Hierarchical Local-Global Transformer for Temporal Sentence Grounding [58.247592985849124]
本稿では,時間文グラウンドリングのマルチメディア問題について検討する。
与えられた文問合せに従って、トリミングされていないビデオ内の特定のビデオセグメントを正確に決定することを目的としている。
論文 参考訳(メタデータ) (2022-08-31T14:16:56Z) - Retrieval of surgical phase transitions using reinforcement learning [11.130363429095048]
オフライン位相遷移検索のための新しい強化学習形式を導入する。
構成上,本モデルでは突発的でノイズの多い相転移は生じないが,連続的な相転移は生じない。
提案手法は,TeCNO と Trans-SVNet を用いた最近のトップパフォーマンスフレームベースアプローチと比較する。
論文 参考訳(メタデータ) (2022-08-01T14:43:15Z) - TTVFI: Learning Trajectory-Aware Transformer for Video Frame
Interpolation [50.49396123016185]
ビデオフレーム(VFI)は、2つの連続するフレーム間の中間フレームを合成することを目的としている。
ビデオフレーム補間用トラジェクトリ対応トランス (TTVFI) を提案する。
提案手法は,4つの広く使用されているVFIベンチマークにおいて,他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-19T03:37:49Z) - Real-time Controllable Motion Transition for Characters [14.88407656218885]
リアルタイムの動作生成はゲームでは普遍的に必要であり、既存のアニメーションパイプラインでは非常に望ましい。
我々のアプローチは、運動多様体と条件遷移という2つの重要な構成要素から構成される。
提案手法は,複数の測定基準の下で測定された高品質な動きを生成できることを示す。
論文 参考訳(メタデータ) (2022-05-05T10:02:54Z) - Out-of-Domain Human Mesh Reconstruction via Dynamic Bilevel Online
Adaptation [87.85851771425325]
我々は、人間のメッシュ再構成モデルをドメイン外ストリーミングビデオに適用する際の新しい問題を考える。
オンライン適応によってこの問題に対処し、テスト中のモデルのバイアスを徐々に修正します。
動的バイレベルオンライン適応アルゴリズム(DynaBOA)を提案する。
論文 参考訳(メタデータ) (2021-11-07T07:23:24Z) - Robust Motion In-betweening [17.473287573543065]
本稿では,3次元アニメーターのための新しいツールとして機能する,新しい頑健な遷移生成技術を提案する。
このシステムは、時間的にスパーサをアニメーションの制約として使用する高品質な動作を合成する。
私たちは、トレーニングされたモデルを使用して運用シナリオで相互運用を行う、カスタムのMotionBuilderプラグインを紹介します。
論文 参考訳(メタデータ) (2021-02-09T16:52:45Z) - Recurrent Multi-view Alignment Network for Unsupervised Surface
Registration [79.72086524370819]
非厳格な登録をエンドツーエンドで学習することは、本質的に高い自由度とラベル付きトレーニングデータの欠如により困難である。
我々は、いくつかの剛性変換のポイントワイドな組み合わせで、非剛性変換を表現することを提案する。
また,投影された多視点2次元深度画像上での3次元形状の類似度を計測する可微分損失関数も導入する。
論文 参考訳(メタデータ) (2020-11-24T14:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。