論文の概要: Wassersplines for Stylized Neural Animation
- arxiv url: http://arxiv.org/abs/2201.11940v1
- Date: Fri, 28 Jan 2022 05:36:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 04:21:15.633236
- Title: Wassersplines for Stylized Neural Animation
- Title(参考訳): スティル化ニューラルアニメーションのためのワッサースプライン
- Authors: Paul Zhang, Dmitriy Smirnov, Justin Solomon
- Abstract要約: コンピュータ生成アニメーションの多くは、メッシュをリグで操作することで生成される。
非構造密度をアニメーションする新しい推論手法であるsplinesを紹介した。
メッシュやリギングを伴わずに時間的に一貫性のあるアニメーションを生成するための,さまざまな問題に対するツールの実証を行った。
- 参考スコア(独自算出の注目度): 36.43240177060714
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Much of computer-generated animation is created by manipulating meshes with
rigs. While this approach works well for animating articulated objects like
animals, it has limited flexibility for animating less structured creatures
such as the Drunn in "Raya and the Last Dragon." We introduce Wassersplines, a
novel trajectory inference method for animating unstructured densities based on
recent advances in continuous normalizing flows and optimal transport. The key
idea is to train a neurally-parameterized velocity field that represents the
motion between keyframes. Trajectories are then computed by pushing keyframes
through the velocity field. We solve an additional Wasserstein barycenter
interpolation problem to guarantee strict adherence to keyframes. Our tool can
stylize trajectories through a variety of PDE-based regularizers to create
different visual effects. We demonstrate our tool on various keyframe
interpolation problems to produce temporally-coherent animations without
meshing or rigging.
- Abstract(参考訳): コンピュータ生成アニメーションの多くは、メッシュをリグで操作することで生成される。
このアプローチは動物のような関節のある物体をアニメーションするのにうまく機能するが、「レイアとラスト・ドラゴン」のドーンのようなより構造の低い生物をアニメーションするための柔軟性は限られている。
連続正規化流と最適輸送の最近の進歩に基づき,非構造密度をアニメーション化する新しい軌道推定法であるwassersplinesを紹介する。
鍵となるアイデアは、キーフレーム間の動きを表す神経パラメータの速度場をトレーニングすることだ。
トラジェクトリは、キーフレームを速度場にプッシュすることで計算される。
追加のwaserstein barycenter補間問題を解き、キーフレームへの厳格な準拠を保証する。
我々のツールは、様々なPDEベースの正規化器を通して軌跡をスタイリングし、異なる視覚効果を生み出すことができる。
我々は,様々なキーフレーム補間問題に対して,メッシュ化やリギングを伴わずに時間的にコヒーレントなアニメーションを生成するツールを示す。
関連論文リスト
- Thin-Plate Spline-based Interpolation for Animation Line Inbetweening [54.69811179222127]
チャンファー距離(CD: Chamfer Distance)は、一般に間欠的な性能を評価するために用いられる。
薄板スプライン変換を応用したアニメーションラインインテタイニングの簡易かつ効果的な手法を提案する。
提案手法は, 流動性を高めた高品質な結果を提供することにより, 既存の手法よりも優れる。
論文 参考訳(メタデータ) (2024-08-17T08:05:31Z) - Puppet-Master: Scaling Interactive Video Generation as a Motion Prior for Part-Level Dynamics [67.97235923372035]
本稿では,対話型ビデオ生成モデルであるPuppet-Masterについて紹介する。
テスト時には、ひとつのイメージと粗い動き軌跡が与えられた場合、Puppet-Masterは、与えられたドラッグ操作に忠実な現実的な部分レベルの動きを描写したビデオを合成することができる。
論文 参考訳(メタデータ) (2024-08-08T17:59:38Z) - AnimateZero: Video Diffusion Models are Zero-Shot Image Animators [63.938509879469024]
我々はAnimateZeroを提案し、事前訓練されたテキスト・ビデオ拡散モデル、すなわちAnimateDiffを提案する。
外観制御のために,テキスト・ツー・イメージ(T2I)生成から中間潜伏子とその特徴を借りる。
時間的制御では、元のT2Vモデルのグローバルな時間的注意を位置補正窓の注意に置き換える。
論文 参考訳(メタデータ) (2023-12-06T13:39:35Z) - AnimateAnything: Fine-Grained Open Domain Image Animation with Motion
Guidance [13.416296247896042]
本稿では,映像拡散モデルに先立って動きを利用するオープンドメイン画像アニメーション手法を提案する。
本手法では,移動領域の正確な制御と移動速度を実現するため,目標となる運動領域の誘導と運動強度の誘導を導入する。
オープンドメインデータセットを用いた厳密な実験により,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-11-21T03:47:54Z) - Image2Gif: Generating Continuous Realistic Animations with Warping NODEs [0.8218964199015377]
本稿では,スムーズなアニメーション(ビデオフレーム)を連続的に生成するための新しいフレームワークであるウォーピングニューラルODEを提案する。
これにより、フレーム間の無限に小さな時間ステップでアニメーションの滑らかさと現実性を達成することができる。
本稿では,GAN(Generative Adversarial Network)や損失$L$など,異なるトレーニング環境下で2フレームのアニメーションを生成する上で,我々の作業の適用例を示す。
論文 参考訳(メタデータ) (2022-05-09T18:39:47Z) - Improving the Perceptual Quality of 2D Animation Interpolation [37.04208600867858]
伝統的な2Dアニメーションは労働集約的であり、しばしばアニメーターは1秒間に12枚のイラストを描く必要がある。
低いフレームレートは大きな変位と閉塞をもたらし、例えばラインやソリッドカラー領域のような個々の知覚要素は、テクスチャ指向の畳み込みネットワークに困難をもたらす。
以前の研究はこれらの問題に対処しようとしたが、計算不能なメソッドを使用し、ピクセル完全性能に重点を置いていた。
私たちは、この芸術領域の知覚的品質を重視した、より適切なスケーラブルなシステムを構築します。
論文 参考訳(メタデータ) (2021-11-24T20:51:29Z) - Render In-between: Motion Guided Video Synthesis for Action
Interpolation [53.43607872972194]
本研究では、リアルな人間の動きと外観を生成できる動き誘導型フレームアップサンプリングフレームワークを提案する。
大規模モーションキャプチャーデータセットを活用することにより、フレーム間の非線形骨格運動を推定するために、新しいモーションモデルが訓練される。
私たちのパイプラインでは、低フレームレートのビデオと不自由な人間のモーションデータしか必要としませんが、トレーニングには高フレームレートのビデオは必要ありません。
論文 参考訳(メタデータ) (2021-11-01T15:32:51Z) - Deep Animation Video Interpolation in the Wild [115.24454577119432]
本研究では,アニメーション・ビデオ・コードに関する問題を初めて形式的に定義・検討する。
効果的なフレームワークであるAnimeInterpを2つの専用モジュールで粗密に提案します。
特にAnimeInterpは、野生のアニメーションシナリオに良好な知覚品質と堅牢性を示します。
論文 参考訳(メタデータ) (2021-04-06T13:26:49Z) - A Robust Interactive Facial Animation Editing System [0.0]
直感的な制御パラメータの集合から顔のアニメーションを簡単に編集するための学習に基づく新しいアプローチを提案する。
我々は、制御パラメータを結合係数列にマップする分解能保存完全畳み込みニューラルネットワークを使用している。
提案システムは頑丈で,非専門ユーザからの粗大で誇張された編集を処理できる。
論文 参考訳(メタデータ) (2020-07-18T08:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。