論文の概要: See-through: Single-image Layer Decomposition for Anime Characters
- arxiv url: http://arxiv.org/abs/2602.03749v1
- Date: Tue, 03 Feb 2026 17:12:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.595889
- Title: See-through: Single-image Layer Decomposition for Anime Characters
- Title(参考訳): See-through: アニメキャラクタのための単一イメージ層分解
- Authors: Jian Lin, Chengze Li, Haoyun Qin, Kwun Wang Chan, Yanghua Jin, Hanyuan Liu, Stephen Chun Wang Choy, Xueting Liu,
- Abstract要約: 本稿では,静的アニメイラストをマニピュラブル2.5Dモデルに変換するフレームワークを提案する。
当社のアプローチでは、ひとつの画像を完全に塗装されたセマンティックな異なる層に分解することで、これを克服しています。
提案手法により,プロのリアルタイムアニメーションアプリケーションに適した高忠実でマニピュラブルなモデルが得られることを示す。
- 参考スコア(独自算出の注目度): 11.629918493740263
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce a framework that automates the transformation of static anime illustrations into manipulatable 2.5D models. Current professional workflows require tedious manual segmentation and the artistic ``hallucination'' of occluded regions to enable motion. Our approach overcomes this by decomposing a single image into fully inpainted, semantically distinct layers with inferred drawing orders. To address the scarcity of training data, we introduce a scalable engine that bootstraps high-quality supervision from commercial Live2D models, capturing pixel-perfect semantics and hidden geometry. Our methodology couples a diffusion-based Body Part Consistency Module, which enforces global geometric coherence, with a pixel-level pseudo-depth inference mechanism. This combination resolves the intricate stratification of anime characters, e.g., interleaving hair strands, allowing for dynamic layer reconstruction. We demonstrate that our approach yields high-fidelity, manipulatable models suitable for professional, real-time animation applications.
- Abstract(参考訳): 本稿では,静的アニメイラストをマニピュラブル2.5Dモデルに変換するフレームワークを提案する。
現在のプロのワークフローでは、面倒な手作業のセグメンテーションと、閉ざされた領域の芸術的な「ハロシン化」が必要である。
当社のアプローチでは、ひとつの画像を完全に塗装されたセマンティックな異なる層に分解することで、これを克服しています。
トレーニングデータの不足に対処するために、商用Live2Dモデルから高品質な監視をブートストラップし、ピクセル完全セマンティクスと隠れた幾何学をキャプチャするスケーラブルなエンジンを導入する。
提案手法では,グローバルな幾何学的コヒーレンスと画素レベルの擬似深度推論機構を併用した拡散型Body Part Consistency Moduleを提案する。
この組み合わせにより、アニメキャラクター、例えばヘアストランドのインターリービングといった複雑な層状化が解決され、動的層再構築が可能となる。
提案手法により,プロのリアルタイムアニメーションアプリケーションに適した高忠実でマニピュラブルなモデルが得られることを示す。
関連論文リスト
- ToonComposer: Streamlining Cartoon Production with Generative Post-Keyframing [60.81602269917522]
ToonComposerは、着色と着色を単一のキーフレーミング段階に統一する生成モデルである。
1つのスケッチと色の付いた参照フレームを必要とするToonComposerは、スパース入力で出力する。
評価の結果,ToonComposerは視覚的品質,動作の整合性,生産効率において,既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2025-08-14T17:50:11Z) - DreamDance: Animating Human Images by Enriching 3D Geometry Cues from 2D Poses [57.17501809717155]
本研究では,骨格ポーズシーケンスのみを条件入力として,人間のイメージをアニメーションする新しい手法であるDreamDanceを提案する。
私たちの重要な洞察は、人間の画像は自然に複数のレベルの相関を示すということです。
我々は5Kの高品質なダンスビデオと詳細なフレームアノテーションを組み合わせたTikTok-Dance5Kデータセットを構築した。
論文 参考訳(メタデータ) (2024-11-30T08:42:13Z) - Make-It-Animatable: An Efficient Framework for Authoring Animation-Ready 3D Characters [86.13319549186959]
我々は3次元ヒューマノイドモデルを1秒未満でキャラクターアニメーションに対応させる新しいデータ駆動方式であるMake-It-Animatableを提案する。
我々のフレームワークは、高品質なブレンドウェイト、骨、ポーズトランスフォーメーションを生成します。
既存の手法と比較して,本手法は品質と速度の両方において著しく改善されている。
論文 参考訳(メタデータ) (2024-11-27T10:18:06Z) - Zero-shot High-fidelity and Pose-controllable Character Animation [89.74818983864832]
イメージ・ツー・ビデオ(I2V)生成は、単一の画像からビデオシーケンスを作成することを目的としている。
既存のアプローチは、キャラクターの外観の不整合と細部保存の貧弱さに悩まされている。
文字アニメーションのための新しいゼロショットI2VフレームワークPoseAnimateを提案する。
論文 参考訳(メタデータ) (2024-04-21T14:43:31Z) - MagicAnimate: Temporally Consistent Human Image Animation using
Diffusion Model [74.84435399451573]
本稿では、特定の動きシーケンスに従って、特定の参照アイデンティティのビデオを生成することを目的とした、人間の画像アニメーションタスクについて検討する。
既存のアニメーションは、通常、フレームウォーピング技術を用いて参照画像を目標運動に向けてアニメーションする。
MagicAnimateは,時間的一貫性の向上,参照画像の忠実な保存,アニメーションの忠実性向上を目的とした,拡散に基づくフレームワークである。
論文 参考訳(メタデータ) (2023-11-27T18:32:31Z) - ObjectStitch: Generative Object Compositing [43.206123360578665]
本研究では,条件付き拡散モデルを用いたオブジェクト合成のための自己教師型フレームワークを提案する。
我々のフレームワークは、手動ラベリングを必要とせず、生成したオブジェクトの視点、幾何学、色、影を変換することができる。
本手法は, 実世界の様々な画像に対するユーザ研究において, 合成結果画像の写実性と忠実性の両方において, 関連ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2022-12-02T02:15:13Z) - Improving the Perceptual Quality of 2D Animation Interpolation [37.04208600867858]
伝統的な2Dアニメーションは労働集約的であり、しばしばアニメーターは1秒間に12枚のイラストを描く必要がある。
低いフレームレートは大きな変位と閉塞をもたらし、例えばラインやソリッドカラー領域のような個々の知覚要素は、テクスチャ指向の畳み込みネットワークに困難をもたらす。
以前の研究はこれらの問題に対処しようとしたが、計算不能なメソッドを使用し、ピクセル完全性能に重点を置いていた。
私たちは、この芸術領域の知覚的品質を重視した、より適切なスケーラブルなシステムを構築します。
論文 参考訳(メタデータ) (2021-11-24T20:51:29Z) - Going beyond Free Viewpoint: Creating Animatable Volumetric Video of
Human Performances [7.7824496657259665]
本稿では,人間の演奏の高品質な映像コンテンツ作成のためのエンドツーエンドパイプラインを提案する。
セマンティックエンリッチメントと幾何学的アニメーション能力は、3Dデータに時間的一貫性を確立することによって達成される。
ポーズ編集では、キャプチャしたデータを可能な限り活用し、キャプチャしたフレームをキネマティックに変形して所望のポーズに適合させる。
論文 参考訳(メタデータ) (2020-09-02T09:46:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。