論文の概要: SketchBetween: Video-to-Video Synthesis for Sprite Animation via
Sketches
- arxiv url: http://arxiv.org/abs/2209.00185v1
- Date: Thu, 1 Sep 2022 02:43:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 14:21:29.774777
- Title: SketchBetween: Video-to-Video Synthesis for Sprite Animation via
Sketches
- Title(参考訳): SketchBetween:スケッチによるスプライトアニメーションのためのビデオ合成
- Authors: Dagmar Lukka Loftsd\'ottir and Matthew Guzdial
- Abstract要約: 2Dアニメーションは、キャラクター、エフェクト、バックグラウンドアートに使用されるゲーム開発において一般的な要素である。
アニメーションの自動化アプローチは存在するが、アニメーションを念頭に置いて設計されている。
本稿では,アニメーションの標準的なワークフローにより密着した問題定式化を提案する。
- 参考スコア(独自算出の注目度): 0.9645196221785693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 2D animation is a common factor in game development, used for characters,
effects and background art. It involves work that takes both skill and time,
but parts of which are repetitive and tedious. Automated animation approaches
exist, but are designed without animators in mind. The focus is heavily on
real-life video, which follows strict laws of how objects move, and does not
account for the stylistic movement often present in 2D animation. We propose a
problem formulation that more closely adheres to the standard workflow of
animation. We also demonstrate a model, SketchBetween, which learns to map
between keyframes and sketched in-betweens to rendered sprite animations. We
demonstrate that our problem formulation provides the required information for
the task and that our model outperforms an existing method.
- Abstract(参考訳): 2dアニメーションは、キャラクター、エフェクト、背景アートに使用されるゲーム開発における一般的な要素である。
スキルと時間の両方を必要とする作業を伴うが、一部は反復的で退屈である。
自動アニメーションアプローチは存在するが、アニメーターを念頭に置いて設計されている。
オブジェクトの移動に関する厳格な法則に従っており、2Dアニメーションでしばしば見られるスタイル的な動きを考慮していない。
本稿では,アニメーションの標準的なワークフローに密着した問題定式化を提案する。
また、キーフレーム間のマッピングとスケッチによるスプライトアニメーションの描画を学ぶSketchBetweenというモデルもデモしています。
我々は,問題の定式化がタスクに必要な情報を提供し,モデルが既存の手法を上回ることを実証する。
関連論文リスト
- AnimeRun: 2D Animation Visual Correspondence from Open Source 3D Movies [98.65469430034246]
既存の2次元漫画のデータセットは、単純なフレーム構成と単調な動きに悩まされている。
我々は,オープンソースの3D映画を2Dスタイルのフルシーンに変換することによって,新しい2Dアニメーション視覚対応データセットAnimeRunを提案する。
分析の結果,提案したデータセットは画像合成において実際のアニメに似るだけでなく,既存のデータセットと比較してよりリッチで複雑な動きパターンを持つことがわかった。
論文 参考訳(メタデータ) (2022-11-10T17:26:21Z) - QS-Craft: Learning to Quantize, Scrabble and Craft for Conditional Human
Motion Animation [66.97112599818507]
本稿では,条件付きヒューマンモーションアニメーション(cHMA)の課題について検討する。
ソースイメージとドライビングビデオが与えられた場合、モデルは新しいフレームシーケンスをアニメーション化するべきである。
新たな3つの重要なステップは、量子化、スクラブル、クラフトだ。
論文 参考訳(メタデータ) (2022-03-22T11:34:40Z) - Learning Fine-Grained Motion Embedding for Landscape Animation [140.57889994591494]
ファイングラインド・モーション・埋め込みを学習し,高品質でリアルな映像を生成するモデルFGLAを提案する。
多様なタイムラプスビデオのトレーニングと評価を行うため、Diverseのシーンを用いた最大の高解像度タイムラプスビデオデータセットを構築した。
提案手法は,LIPISが19%,FVDが5.6%向上した。
論文 参考訳(メタデータ) (2021-09-06T02:47:11Z) - Deep Animation Video Interpolation in the Wild [115.24454577119432]
本研究では,アニメーション・ビデオ・コードに関する問題を初めて形式的に定義・検討する。
効果的なフレームワークであるAnimeInterpを2つの専用モジュールで粗密に提案します。
特にAnimeInterpは、野生のアニメーションシナリオに良好な知覚品質と堅牢性を示します。
論文 参考訳(メタデータ) (2021-04-06T13:26:49Z) - Self-Supervised Equivariant Scene Synthesis from Video [84.15595573718925]
本稿では,映像からシーン表現を学習するフレームワークを提案する。
トレーニング後、画像エンコーディングをリアルタイムで操作して、非表示のコンポーネントの組み合わせを生成することができる。
背景を持つMNISTの移動、2Dビデオゲームのスプライト、ファッションモデリングの3つのデータセットで結果を示す。
論文 参考訳(メタデータ) (2021-02-01T14:17:31Z) - Going beyond Free Viewpoint: Creating Animatable Volumetric Video of
Human Performances [7.7824496657259665]
本稿では,人間の演奏の高品質な映像コンテンツ作成のためのエンドツーエンドパイプラインを提案する。
セマンティックエンリッチメントと幾何学的アニメーション能力は、3Dデータに時間的一貫性を確立することによって達成される。
ポーズ編集では、キャプチャしたデータを可能な限り活用し、キャプチャしたフレームをキネマティックに変形して所望のポーズに適合させる。
論文 参考訳(メタデータ) (2020-09-02T09:46:12Z) - A Robust Interactive Facial Animation Editing System [0.0]
直感的な制御パラメータの集合から顔のアニメーションを簡単に編集するための学習に基づく新しいアプローチを提案する。
我々は、制御パラメータを結合係数列にマップする分解能保存完全畳み込みニューラルネットワークを使用している。
提案システムは頑丈で,非専門ユーザからの粗大で誇張された編集を処理できる。
論文 参考訳(メタデータ) (2020-07-18T08:31:02Z) - First Order Motion Model for Image Animation [90.712718329677]
画像アニメーションは、駆動ビデオの動きに応じて、ソース画像内のオブジェクトがアニメーションされるように、ビデオシーケンスを生成する。
我々のフレームワークは、アニメーションする特定のオブジェクトに関するアノテーションや事前情報を使わずに、この問題に対処します。
論文 参考訳(メタデータ) (2020-02-29T07:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。