論文の概要: APES: Articulated Part Extraction from Sprite Sheets
- arxiv url: http://arxiv.org/abs/2206.02015v1
- Date: Sat, 4 Jun 2022 15:44:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 17:12:08.443691
- Title: APES: Articulated Part Extraction from Sprite Sheets
- Title(参考訳): APES:スプライトシートからの人工部品抽出
- Authors: Zhan Xu, Matthew Fisher, Yang Zhou, Deepali Aneja, Rushikesh Dudhat,
Li Yi, Evangelos Kalogerakis
- Abstract要約: 引き裂かれた人形は2Dキャラクターアニメーションを作成する上で最も一般的な表現の1つである。
本研究では,スプライトシートに示される小文字のポーズから,このような明瞭な部分を自動的に識別する手法を提案する。
- 参考スコア(独自算出の注目度): 32.571973284619084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rigged puppets are one of the most prevalent representations to create 2D
character animations. Creating these puppets requires partitioning characters
into independently moving parts. In this work, we present a method to
automatically identify such articulated parts from a small set of character
poses shown in a sprite sheet, which is an illustration of the character that
artists often draw before puppet creation. Our method is trained to infer
articulated parts, e.g. head, torso and limbs, that can be re-assembled to best
reconstruct the given poses. Our results demonstrate significantly better
performance than alternatives qualitatively and quantitatively.Our project page
https://zhan-xu.github.io/parts/ includes our code and data.
- Abstract(参考訳): リグジット人形は、2dキャラクタアニメーションを作成する最も一般的な表現の1つです。
これらの人形を作成するには、文字を独立して動く部分に分割する必要がある。
本研究では,人形制作に先立ってアーティストが絵を描くキャラクターの挿絵であるスプライトシートに表示された,少数の人物ポーズから,そのような構音部分を自動的に識別する手法を提案する。
本手法は, 所定のポーズを最もよく再現するために再組み立て可能な頭部, 胴部, 四肢などの関節部を推定する訓練を行う。
私たちのプロジェクトページ https://zhan-xu.github.io/parts/ にはコードとデータが含まれています。
関連論文リスト
- AnimateZoo: Zero-shot Video Generation of Cross-Species Animation via Subject Alignment [64.02822911038848]
動物アニメーションを作成するため, ゼロショット拡散に基づくビデオジェネレータAnimateZooを提案する。
AnimateZooで使われる主要なテクニックは、2つのステップを含む被写体アライメントです。
我々のモデルは、正確な動き、一貫した外観、高忠実度フレームを特徴とする映像を生成することができる。
論文 参考訳(メタデータ) (2024-04-07T12:57:41Z) - Breathing Life Into Sketches Using Text-to-Video Priors [101.8236605955899]
スケッチは、人間が自分のアイデアを視覚的に伝えるために使う最も直感的で汎用性の高いツールの1つです。
本研究では,単一オブジェクトのスケッチに動きを自動的に付加する手法を提案する。
出力はベクトル表現で提供される短いアニメーションで、簡単に編集できる。
論文 参考訳(メタデータ) (2023-11-21T18:09:30Z) - Pose-to-Motion: Cross-Domain Motion Retargeting with Pose Prior [48.104051952928465]
現在の学習に基づく動き合成法は、広範囲な動きデータセットに依存する。
ポーズデータは作成が容易で、画像から抽出することもできるため、よりアクセスしやすい。
提案手法は,他のキャラクタの既存のモーションキャプチャーデータセットから動きを転送することで,データのみをポーズするキャラクタに対する可塑性モーションを生成する。
論文 参考訳(メタデータ) (2023-10-31T08:13:00Z) - Generating Pixel Art Character Sprites using GANs [2.832641837766535]
ゲーム開発プロセスにおいて,ピクセルアートキャラクタスプライトシートの作成を繰り返すことが不可欠である。
本稿では,このようなスプライトシートの作成を支援するために,条件付き生成対向ネットワークを用いて検討する。
論文 参考訳(メタデータ) (2022-08-15T14:14:19Z) - Skeleton-free Pose Transfer for Stylized 3D Characters [53.33996932633865]
骨格リグを使わずにスタイリングされた3D文字間でポーズを自動転送する最初の方法を提案する。
そこで本稿では,対象キャラクターを目的のポーズに合わせるために,キャラクタのスキニング重みと変形変形を共同で予測する新しいポーズ伝達ネットワークを提案する。
提案手法は,既存の文字データを一対のポーズとスタイル化された形状で吸収する半教師付き方式で訓練されている。
論文 参考訳(メタデータ) (2022-07-28T20:05:57Z) - A Hierarchy-Aware Pose Representation for Deep Character Animation [2.47343886645587]
深層キャラクタアニメーションに適した動きモデリングのための頑健なポーズ表現を提案する。
我々の表現は、回転方向と位置方向を同時にエンコードする、よく定義された演算を持つ数学的抽象化である二重四元数に基づいている。
我々の表現は共通の動きを克服し、他の一般的な表現と比較してその性能を評価する。
論文 参考訳(メタデータ) (2021-11-27T14:33:24Z) - Motion Representations for Articulated Animation [34.54825980226596]
異なる部分からなる関節オブジェクトをアニメーション化するための新しいモーション表現を提案する。
完全に教師なしの方法で、本手法は対象部品を識別し、駆動ビデオで追跡し、主軸を考慮して動きを推定する。
我々のモデルは様々なオブジェクトをアニメートすることができ、既存のベンチマークでは従来のメソッドを大きく上回っています。
論文 参考訳(メタデータ) (2021-04-22T18:53:56Z) - Self-Supervised Equivariant Scene Synthesis from Video [84.15595573718925]
本稿では,映像からシーン表現を学習するフレームワークを提案する。
トレーニング後、画像エンコーディングをリアルタイムで操作して、非表示のコンポーネントの組み合わせを生成することができる。
背景を持つMNISTの移動、2Dビデオゲームのスプライト、ファッションモデリングの3つのデータセットで結果を示す。
論文 参考訳(メタデータ) (2021-02-01T14:17:31Z) - Liquid Warping GAN with Attention: A Unified Framework for Human Image
Synthesis [58.05389586712485]
我々は、人間の動きの模倣、外見の移入、新しい視点の合成など、人間の画像合成に取り組む。
本稿では,ポーズと形状を乱す3次元ボディーメッシュ回収モジュールを提案する。
我々はまた、人間の動きの模倣、外観伝達、新しいビュー合成を評価するために、新しいデータセット、すなわちiPERデータセットを構築した。
論文 参考訳(メタデータ) (2020-11-18T02:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。