論文の概要: Shuffled Autoregression For Motion Interpolation
- arxiv url: http://arxiv.org/abs/2306.06367v1
- Date: Sat, 10 Jun 2023 07:14:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 19:23:20.757632
- Title: Shuffled Autoregression For Motion Interpolation
- Title(参考訳): 運動補間のためのシャッフル自己回帰
- Authors: Shuo Huang, Jia Jia, Zongxin Yang, Wei Wang, Haozhe Wu, Yi Yang,
Junliang Xing
- Abstract要約: この作業は、モーションタスクのためのディープラーニングソリューションを提供することを目的としている。
本稿では,自己回帰を任意の(シャッフルされた)順序で生成するために拡張する,emphShuffled AutoRegressionと呼ばれる新しいフレームワークを提案する。
また,3つのステージを終端から終端の時空間運動変換器に組み込んだ依存グラフの構築手法を提案する。
- 参考スコア(独自算出の注目度): 53.61556200049156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work aims to provide a deep-learning solution for the motion
interpolation task. Previous studies solve it with geometric weight functions.
Some other works propose neural networks for different problem settings with
consecutive pose sequences as input. However, motion interpolation is a more
complex problem that takes isolated poses (e.g., only one start pose and one
end pose) as input. When applied to motion interpolation, these deep learning
methods have limited performance since they do not leverage the flexible
dependencies between interpolation frames as the original geometric formulas
do. To realize this interpolation characteristic, we propose a novel framework,
referred to as \emph{Shuffled AutoRegression}, which expands the autoregression
to generate in arbitrary (shuffled) order and models any inter-frame
dependencies as a directed acyclic graph. We further propose an approach to
constructing a particular kind of dependency graph, with three stages assembled
into an end-to-end spatial-temporal motion Transformer. Experimental results on
one of the current largest datasets show that our model generates vivid and
coherent motions from only one start frame to one end frame and outperforms
competing methods by a large margin. The proposed model is also extensible to
multiple keyframes' motion interpolation tasks and other areas' interpolation.
- Abstract(参考訳): 本研究の目的は,動作補間作業のためのディープラーニングソリューションを提供することである。
以前の研究では幾何学的重み関数を用いて解いた。
他の研究では、連続したポーズシーケンスを入力として、異なる問題設定のためのニューラルネットワークを提案する。
しかし、運動補間はより複雑な問題であり、孤立したポーズ(例えば、1つの開始ポーズと1つの終了ポーズ)を入力として取る。
動き補間に適用すると、これらの深層学習法は、元の幾何学式のように補間フレーム間の柔軟な依存関係を活用しないため、性能が限られる。
この補間特性を実現するために, 自己回帰を任意の(シャッフル)順序で生成し, 任意のフレーム間の依存関係を有向非巡回グラフとしてモデル化する, \emph{shuffled autoregression} と呼ばれる新しい枠組みを提案する。
さらに,3つのステージをエンドツーエンドの時空間運動変換器に組み込んだ依存グラフの構築手法を提案する。
現在最大のデータセットの1つでの実験結果は、我々のモデルが1つのスタートフレームから1つのエンドフレームまでの鮮明でコヒーレントな動きを生成し、競合メソッドを大きなマージンで上回っていることを示している。
提案モデルは、複数のキーフレームの動作補間タスクや他の領域補間タスクにも拡張可能である。
関連論文リスト
- Thin-Plate Spline-based Interpolation for Animation Line Inbetweening [54.69811179222127]
チャンファー距離(CD: Chamfer Distance)は、一般に間欠的な性能を評価するために用いられる。
薄板スプライン変換を応用したアニメーションラインインテタイニングの簡易かつ効果的な手法を提案する。
提案手法は, 流動性を高めた高品質な結果を提供することにより, 既存の手法よりも優れる。
論文 参考訳(メタデータ) (2024-08-17T08:05:31Z) - Degrees of Freedom Matter: Inferring Dynamics from Point Trajectories [28.701879490459675]
ニューラルネットワークによってパラメータ化された暗黙の運動場を学習し、同一領域内の新規点の動きを予測することを目的とする。
我々は、SIRENが提供する固有正則化を活用し、入力層を変更して時間的に滑らかな運動場を生成する。
実験では, 未知点軌道の予測におけるモデルの性能評価と, 変形を伴う時間メッシュアライメントへの応用について検討した。
論文 参考訳(メタデータ) (2024-06-05T21:02:10Z) - Multiscale Residual Learning of Graph Convolutional Sequence Chunks for
Human Motion Prediction [23.212848643552395]
時間的および空間的依存関係の学習による人間の動作予測のための新しい手法を提案する。
提案手法は,動作予測のためのシーケンス情報を効果的にモデル化し,他の手法よりも優れ,新しい最先端の手法を設定できる。
論文 参考訳(メタデータ) (2023-08-31T15:23:33Z) - JNMR: Joint Non-linear Motion Regression for Video Frame Interpolation [47.123769305867775]
ビデオフレーム(VFI)は、双方向の歴史的参照から学習可能な動きを歪曲することでフレームを生成することを目的としている。
我々は、フレーム間の複雑な動きをモデル化するために、VFIをJNMR(Joint Non-linear Motion Regression)戦略として再構成する。
その結果, 関節運動の退行性は, 最先端の方法と比較して有意に向上した。
論文 参考訳(メタデータ) (2022-06-09T02:47:29Z) - NeuroMorph: Unsupervised Shape Interpolation and Correspondence in One
Go [109.88509362837475]
入力2つの3次元形状を考慮したニューラルネットワークアーキテクチャであるNeuroMorphを提案する。
NeuroMorphはそれらの間のスムーズかつポイントツーポイント対応を生成する。
異なる対象カテゴリの非等尺性ペアを含む、さまざまな入力形状に対してうまく機能する。
論文 参考訳(メタデータ) (2021-06-17T12:25:44Z) - Real-time Pose and Shape Reconstruction of Two Interacting Hands With a
Single Depth Camera [79.41374930171469]
本稿では,2つの強く相互作用する手の位置と形状をリアルタイムに再現する新しい手法を提案する。
われわれのアプローチは、有利なプロパティの広範なリスト、すなわちマーカーレスを組み合わせている。
過去の研究で示された複雑性レベルを超える場面で、最先端の結果を示す。
論文 参考訳(メタデータ) (2021-06-15T11:39:49Z) - Convolutional Autoencoders for Human Motion Infilling [37.16099544563645]
モーションインフィルメントは、入力されたポーズがスタートシーケンスを確実に予測し、エンドシーケンスに自然に遷移するような、欠落したギャップを埋めることを目的としている。
一つのモデルを用いて、異なるタイプのアクティビティ間の自然な遷移を生成できることが示される。
提案手法は, 欠落フレーム全体を埋めるだけでなく, 部分的なポーズが利用できるようなギャップを埋めるのにも利用できる。
論文 参考訳(メタデータ) (2020-10-22T08:45:38Z) - All at Once: Temporally Adaptive Multi-Frame Interpolation with Advanced
Motion Modeling [52.425236515695914]
最先端の手法は、一度に1つのフレームを補間する反復解である。
この研究は、真のマルチフレーム補間子を導入している。
時間領域のピラミッドスタイルのネットワークを使用して、複数フレームのタスクをワンショットで完了する。
論文 参考訳(メタデータ) (2020-07-23T02:34:39Z) - Disentangling and Unifying Graph Convolutions for Skeleton-Based Action
Recognition [79.33539539956186]
本稿では,マルチスケールグラフ畳み込みと,G3Dという空間時間グラフ畳み込み演算子を結合する簡単な方法を提案する。
これらの提案を結合することにより,MS-G3Dという強力な特徴抽出器を開発し,そのモデルが3つの大規模データセット上で従来の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-03-31T11:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。