論文の概要: Occlusion-robust Stylization for Drawing-based 3D Animation
- arxiv url: http://arxiv.org/abs/2508.00398v1
- Date: Fri, 01 Aug 2025 07:52:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.781591
- Title: Occlusion-robust Stylization for Drawing-based 3D Animation
- Title(参考訳): 図面に基づく3次元アニメーションのためのオクルージョン・ロバスト・スティル化
- Authors: Sunjae Yoon, Gwanhyeong Koo, Younghwan Lee, Ji Woo Hong, Chang D. Yoo,
- Abstract要約: 描画に基づく3DアニメーションのためのOcclusion-robust Stylization Framework(OSF)を提案する。
OSFは以前の2段階ではなく1回の実行で動作し、2.4倍高速な推論と2.1倍少ないメモリを実現している。
- 参考スコア(独自算出の注目度): 20.793887576117527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D animation aims to generate a 3D animated video from an input image and a target 3D motion sequence. Recent advances in image-to-3D models enable the creation of animations directly from user-hand drawings. Distinguished from conventional 3D animation, drawing-based 3D animation is crucial to preserve artist's unique style properties, such as rough contours and distinct stroke patterns. However, recent methods still exhibit quality deterioration in style properties, especially under occlusions caused by overlapping body parts, leading to contour flickering and stroke blurring. This occurs due to a `stylization pose gap' between training and inference in stylization networks designed to preserve drawing styles in drawing-based 3D animation systems. The stylization pose gap denotes that input target poses used to train the stylization network are always in occlusion-free poses, while target poses encountered in an inference include diverse occlusions under dynamic motions. To this end, we propose Occlusion-robust Stylization Framework (OSF) for drawing-based 3D animation. We found that while employing object's edge can be effective input prior for guiding stylization, it becomes notably inaccurate when occlusions occur at inference. Thus, our proposed OSF provides occlusion-robust edge guidance for stylization network using optical flow, ensuring a consistent stylization even under occlusions. Furthermore, OSF operates in a single run instead of the previous two-stage method, achieving 2.4x faster inference and 2.1x less memory.
- Abstract(参考訳): 3Dアニメーションは、入力画像とターゲット3Dモーションシーケンスから3Dアニメーション映像を生成することを目的としている。
画像から3Dモデルへの最近の進歩により、ユーザハンドの描画から直接アニメーションを作成することができる。
従来の3Dアニメーションとは違い、図面ベースの3Dアニメーションは、粗い輪郭や異なるストロークパターンなど、アーティストのユニークなスタイル特性を維持するために不可欠である。
しかし、近年の手法では、特に重なり合う身体部分による閉塞下でのスタイル特性の劣化が相変わらず見られ、輪郭のひねりやストロークのぼけにつながっている。
これは、描画に基づく3Dアニメーションシステムにおいて、描画スタイルを保存するように設計されたスタイリングネットワークにおいて、トレーニングと推論の間に「スティル化ポーズギャップ」が生じるためである。
スタイリゼーションポーズギャップは、スタイリゼーションネットワークのトレーニングに使用される入力ターゲットポーズが、常にオクルージョンのないポーズであり、推論で遭遇するターゲットポーズは、動的動作の下で多様なオクルージョンを含むことを示す。
そこで我々は3DアニメーションのためのOcclusion-robust Stylization Framework(OSF)を提案する。
その結果, 物体のエッジは, スタイリゼーションの指導に先立って効果的に入力できるが, 推測時にオクルージョンが発生すると, 顕著に不正確になることがわかった。
そこで,提案OSFは,光学的流れを用いたスタイリゼーションネットワークに対して,オクルージョン・ロバストエッジガイダンスを提供し,オクルージョンの下でも一貫したスタイリゼーションを実現する。
さらに、OSFは以前の2段階ではなく1回の実行で動作し、2.4倍高速な推論と2.1倍少ないメモリを実現している。
関連論文リスト
- DreamDance: Animating Human Images by Enriching 3D Geometry Cues from 2D Poses [57.17501809717155]
本研究では,骨格ポーズシーケンスのみを条件入力として,人間のイメージをアニメーションする新しい手法であるDreamDanceを提案する。
私たちの重要な洞察は、人間の画像は自然に複数のレベルの相関を示すということです。
我々は5Kの高品質なダンスビデオと詳細なフレームアノテーションを組み合わせたTikTok-Dance5Kデータセットを構築した。
論文 参考訳(メタデータ) (2024-11-30T08:42:13Z) - FlipSketch: Flipping Static Drawings to Text-Guided Sketch Animations [65.64014682930164]
スケッチアニメーションは、単純なフリップブックの落書きからプロのスタジオプロダクションまで、ビジュアルなストーリーテリングのための強力な媒体を提供する。
FlipSketchは、フリップブックアニメーションの魔法を復活させるシステムです。
論文 参考訳(メタデータ) (2024-11-16T14:53:03Z) - Sketch3D: Style-Consistent Guidance for Sketch-to-3D Generation [55.73399465968594]
本稿では,テキスト記述と一致する色と入力スケッチに整合した形状のリアルな3Dアセットを生成するための,新しい生成パラダイムSketch3Dを提案する。
3つの戦略は、3次元ガウスの最適化、すなわち分布伝達機構による構造最適化、直感的なMSE損失による色最適化、CLIPに基づく幾何学的類似性損失によるスケッチ類似性最適化である。
論文 参考訳(メタデータ) (2024-04-02T11:03:24Z) - Neural 3D Strokes: Creating Stylized 3D Scenes with Vectorized 3D
Strokes [20.340259111585873]
ニューラル3Dストロークス(Neural 3D Strokes)は、多視点2D画像から任意の新しいビューで3Dシーンのスタイリング画像を生成する新しい技術である。
提案手法は,ベクトルストロークによる人間のアートワークのプログレッシブ・ペインティングの過程をシミュレートし,イメージ・ツー・ペインティング法からインスピレーションを得ている。
論文 参考訳(メタデータ) (2023-11-27T09:02:21Z) - DeformToon3D: Deformable 3D Toonification from Neural Radiance Fields [96.0858117473902]
3Dトーン化には、テクスチャ化された幾何学とテクスチャで、アートドメインのスタイルをターゲットの3D顔に転送することが含まれる。
階層型3D GANに適した効果的なトーン化フレームワークであるDeformToon3Dを提案する。
提案手法は3次元トーン化を幾何学とテクスチャスタイリングのサブプロブレムに分解し,元の潜伏空間をよりよく保存する。
論文 参考訳(メタデータ) (2023-09-08T16:17:45Z) - ARTIC3D: Learning Robust Articulated 3D Shapes from Noisy Web Image
Collections [71.46546520120162]
単眼画像から動物体のような3D関節形状を推定することは、本質的に困難である。
本稿では,スパース画像コレクションから各物体の形状を再構築する自己教師型フレームワークARTIC3Dを提案する。
我々は、剛性部分変換の下で、描画された形状とテクスチャを微調整することで、現実的なアニメーションを作成する。
論文 参考訳(メタデータ) (2023-06-07T17:47:50Z) - HyperStyle3D: Text-Guided 3D Portrait Stylization via Hypernetworks [101.36230756743106]
本論文は,2次元画像の中間表現として,2次元領域と3次元領域を3次元フィールドで橋渡しする3次元GANの成功に着想を得たものである。
本稿では,3次元ポートレートスタイリングのための3次元認識型GANをベースとしたHyperStyle3Dという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-19T07:22:05Z) - Improving the Perceptual Quality of 2D Animation Interpolation [37.04208600867858]
伝統的な2Dアニメーションは労働集約的であり、しばしばアニメーターは1秒間に12枚のイラストを描く必要がある。
低いフレームレートは大きな変位と閉塞をもたらし、例えばラインやソリッドカラー領域のような個々の知覚要素は、テクスチャ指向の畳み込みネットワークに困難をもたらす。
以前の研究はこれらの問題に対処しようとしたが、計算不能なメソッドを使用し、ピクセル完全性能に重点を置いていた。
私たちは、この芸術領域の知覚的品質を重視した、より適切なスケーラブルなシステムを構築します。
論文 参考訳(メタデータ) (2021-11-24T20:51:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。