論文の概要: Thin-Plate Spline-based Interpolation for Animation Line Inbetweening
- arxiv url: http://arxiv.org/abs/2408.09131v1
- Date: Sat, 17 Aug 2024 08:05:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 22:25:12.443276
- Title: Thin-Plate Spline-based Interpolation for Animation Line Inbetweening
- Title(参考訳): 薄膜スプラインによるアニメーションライン間補間
- Authors: Tianyi Zhu, Wei Shang, Dongwei Ren, Wangmeng Zuo,
- Abstract要約: チャンファー距離(CD: Chamfer Distance)は、一般に間欠的な性能を評価するために用いられる。
薄板スプライン変換を応用したアニメーションラインインテタイニングの簡易かつ効果的な手法を提案する。
提案手法は, 流動性を高めた高品質な結果を提供することにより, 既存の手法よりも優れる。
- 参考スコア(独自算出の注目度): 54.69811179222127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Animation line inbetweening is a crucial step in animation production aimed at enhancing animation fluidity by predicting intermediate line arts between two key frames. However, existing methods face challenges in effectively addressing sparse pixels and significant motion in line art key frames. In literature, Chamfer Distance (CD) is commonly adopted for evaluating inbetweening performance. Despite achieving favorable CD values, existing methods often generate interpolated frames with line disconnections, especially for scenarios involving large motion. Motivated by this observation, we propose a simple yet effective interpolation method for animation line inbetweening that adopts thin-plate spline-based transformation to estimate coarse motion more accurately by modeling the keypoint correspondence between two key frames, particularly for large motion scenarios. Building upon the coarse estimation, a motion refine module is employed to further enhance motion details before final frame interpolation using a simple UNet model. Furthermore, to more accurately assess the performance of animation line inbetweening, we refine the CD metric and introduce a novel metric termed Weighted Chamfer Distance, which demonstrates a higher consistency with visual perception quality. Additionally, we incorporate Earth Mover's Distance and conduct user study to provide a more comprehensive evaluation. Our method outperforms existing approaches by delivering high-quality interpolation results with enhanced fluidity. The code is available at \url{https://github.com/Tian-one/tps-inbetween}.
- Abstract(参考訳): 2つのキーフレーム間の中間ラインアートを予測することによりアニメーション流動性を高めることを目的としたアニメーション制作において、アニメーションラインインテワイニングは重要なステップである。
しかし,既存の手法では,ラインアートのキーフレームにおいて,スパースピクセルや重要な動きに効果的に対処する上で,課題に直面している。
文学において、チャンファー距離(CD)は、間欠的なパフォーマンスを評価するために一般的に用いられる。
良好なCD値を達成するにもかかわらず、既存の手法では、特に大きな動きを伴うシナリオにおいて、線が切断された補間フレームをしばしば生成する。
そこで本研究では,2つのキーフレーム間のキーポイント対応をモデル化し,より正確に粗い動きを推定するために,薄板スプライン変換を用いたアニメーションラインインテワイニングの簡易かつ効果的な補間法を提案する。
粗い推定に基づいて、単純なUNetモデルを用いて最終フレーム補間前の動きの詳細をさらに強化するために、モーションリファインメントモジュールが使用される。
さらに, アニメーションの行間性能をより正確に評価するために, CDメトリックスを改良し, 「重み付きチャンファー距離」と呼ばれる新しいメトリクスを導入し, 視覚的知覚品質との整合性を示す。
さらに,Earth Mover の Distance を取り入れ,より包括的な評価を行うためにユーザスタディを実施している。
本手法は,流動性を高めた高品質な補間結果を提供することにより,既存の手法よりも優れた性能を発揮する。
コードは \url{https://github.com/Tian-one/tps-inbetween} で公開されている。
関連論文リスト
- Motion-aware Latent Diffusion Models for Video Frame Interpolation [51.78737270917301]
隣接するフレーム間の動き推定は、動きのあいまいさを避ける上で重要な役割を担っている。
我々は、新しい拡散フレームワーク、動き認識潜在拡散モデル(MADiff)を提案する。
提案手法は,既存手法を著しく上回る最先端性能を実現する。
論文 参考訳(メタデータ) (2024-04-21T05:09:56Z) - Motion-Aware Video Frame Interpolation [49.49668436390514]
我々は、連続するフレームから中間光の流れを直接推定する動き対応ビデオフレーム補間(MA-VFI)ネットワークを導入する。
受容場が異なる入力フレームからグローバルな意味関係と空間的詳細を抽出するだけでなく、必要な計算コストと複雑さを効果的に削減する。
論文 参考訳(メタデータ) (2024-02-05T11:00:14Z) - Video Frame Interpolation with Densely Queried Bilateral Correlation [52.823751291070906]
Video Frame Interpolation (VFI) は、既存のフレーム間で既存の中間フレームを合成することを目的としている。
フローベースVFIアルゴリズムは、中間運動場を推定し、既存のフレームをワープする。
本稿では,DQBC(Densely Queried Bilateral correlation, DQBC)を提案する。
論文 参考訳(メタデータ) (2023-04-26T14:45:09Z) - Continuous Intermediate Token Learning with Implicit Motion Manifold for
Keyframe Based Motion Interpolation [20.314332409748637]
精度に基づく制約で潜在動作を定式化するための新しい枠組みを提案する。
提案手法は,地上の真理運動に優れたデータセットの精度と高い視覚的類似性を実証する。
論文 参考訳(メタデータ) (2023-03-27T05:53:01Z) - Enhanced Bi-directional Motion Estimation for Video Frame Interpolation [0.05541644538483946]
本稿では,動画フレーム推定のための新しいアルゴリズムを提案する。
提案手法は,広い範囲の動画フレームベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2022-06-17T06:08:43Z) - Long-term Video Frame Interpolation via Feature Propagation [95.18170372022703]
ビデオフレーム(VFI)は、まず入力間の動きを推定し、次に推定された動きで入力を目標時間にワープすることで、中間フレーム(s)を予測する。
入力シーケンス間の時間的距離が増加すると、このアプローチは最適ではない。
本稿では,従来の特徴レベルの予測を新しいモーション・トゥ・フェース・アプローチで拡張した伝搬ネットワーク(PNet)を提案する。
論文 参考訳(メタデータ) (2022-03-29T10:47:06Z) - All at Once: Temporally Adaptive Multi-Frame Interpolation with Advanced
Motion Modeling [52.425236515695914]
最先端の手法は、一度に1つのフレームを補間する反復解である。
この研究は、真のマルチフレーム補間子を導入している。
時間領域のピラミッドスタイルのネットワークを使用して、複数フレームのタスクをワンショットで完了する。
論文 参考訳(メタデータ) (2020-07-23T02:34:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。