論文の概要: 3DProxyImg: Controllable 3D-Aware Animation Synthesis from Single Image via 2D-3D Aligned Proxy Embedding
- arxiv url: http://arxiv.org/abs/2512.15126v1
- Date: Wed, 17 Dec 2025 06:38:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.877832
- Title: 3DProxyImg: Controllable 3D-Aware Animation Synthesis from Single Image via 2D-3D Aligned Proxy Embedding
- Title(参考訳): 3DProxyImg:2D-3D配位プロキシ・エンベディングによる単一画像からの制御可能な3D認識アニメーション合成
- Authors: Yupeng Zhu, Xiongzhen Zhang, Ye Chen, Bingbing Ni,
- Abstract要約: 外観合成から幾何学的制御を分離する軽量な3Dアニメーションフレームワークを提案する。
提案手法は,低消費電力プラットフォーム上での効率的なアニメーション生成を実現する。
- 参考スコア(独自算出の注目度): 46.75707405618843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D animation is central to modern visual media, yet traditional production pipelines remain labor-intensive, expertise-demanding, and computationally expensive. Recent AIGC-based approaches partially automate asset creation and rigging, but they either inherit the heavy costs of full 3D pipelines or rely on video-synthesis paradigms that sacrifice 3D controllability and interactivity. We focus on single-image 3D animation generation and argue that progress is fundamentally constrained by a trade-off between rendering quality and 3D control. To address this limitation, we propose a lightweight 3D animation framework that decouples geometric control from appearance synthesis. The core idea is a 2D-3D aligned proxy representation that uses a coarse 3D estimate as a structural carrier, while delegating high-fidelity appearance and view synthesis to learned image-space generative priors. This proxy formulation enables 3D-aware motion control and interaction comparable to classical pipelines, without requiring accurate geometry or expensive optimization, and naturally extends to coherent background animation. Extensive experiments demonstrate that our method achieves efficient animation generation on low-power platforms and outperforms video-based 3D animation generation in identity preservation, geometric and textural consistency, and the level of precise, interactive control it offers to users.
- Abstract(参考訳): 3Dアニメーションは現代のビジュアルメディアの中心であるが、従来の生産パイプラインは労働集約的であり、専門性を必要とし、計算コストがかかる。
最近のAIGCベースのアプローチは、部分的に資産の創造と掘削を自動化するが、完全な3Dパイプラインの重いコストを継承するか、3D制御性と対話性を犠牲にするビデオ合成パラダイムに依存している。
我々は、シングルイメージの3Dアニメーション生成に焦点をあて、レンダリング品質と3D制御のトレードオフによって、進歩が根本的に制約されていることを論じる。
この制限に対処するために,幾何学的制御を外観合成から切り離す軽量な3Dアニメーションフレームワークを提案する。
中心となるアイデアは、粗い3次元推定を構造キャリアとして使用する2D-3D整列プロキシ表現であり、高忠実な外観とビュー合成を学習された画像空間生成先行に委譲する。
このプロキシの定式化は、正確な幾何学や高価な最適化を必要とせず、古典的なパイプラインに匹敵する3D対応モーションコントロールとインタラクションを可能にし、自然にコヒーレントなバックグラウンドアニメーションに拡張する。
大規模な実験により,低消費電力プラットフォーム上での効率的なアニメーション生成を実現し,アイデンティティの保存,幾何学的およびテクスチャ的整合性,ユーザに提供する正確かつインタラクティブな制御のレベルにおいて,映像ベースの3Dアニメーション生成に優れることが示された。
関連論文リスト
- Puppeteer: Rig and Animate Your 3D Models [105.11046762553121]
Puppeteerは、さまざまな3Dオブジェクトの自動リギングとアニメーションの両方に対処する包括的なフレームワークである。
本システムはまず, 自己回帰変換器を用いて, 可塑性骨格構造を推定する。
その後、注意に基づくアーキテクチャにより、皮膚の重量を推定する。
論文 参考訳(メタデータ) (2025-08-14T17:59:31Z) - I2V3D: Controllable image-to-video generation with 3D guidance [42.23117201457898]
IV23Dは、静的画像を正確な3D制御で動的ビデオにアニメーションするためのフレームワークである。
提案手法は,コンピュータグラフィックスパイプラインの精度と高度な生成モデルを組み合わせる。
論文 参考訳(メタデータ) (2025-03-12T18:26:34Z) - Gaussians-to-Life: Text-Driven Animation of 3D Gaussian Splatting Scenes [49.26872036160368]
ガウススティング表現における高品質な3Dシーンの一部をアニメーションする手法を提案する。
従来の作業とは対照的に、複雑な既存の3Dシーンのリアルなアニメーションを可能にする。
論文 参考訳(メタデータ) (2024-11-28T16:01:58Z) - MIMO: Controllable Character Video Synthesis with Spatial Decomposed Modeling [21.1274747033854]
キャラクタビデオ合成は、ライフライクなシーン内でアニマタブルなキャラクターのリアルなビデオを作成することを目的としている。
Miloは、文字ビデオを制御可能な属性で合成できる新しいフレームワークである。
Miloは、任意のキャラクタへの高度なスケーラビリティ、新しい3Dモーションへの一般化、インタラクティブな現実世界のシーンへの適用性を実現している。
論文 参考訳(メタデータ) (2024-09-24T15:00:07Z) - iControl3D: An Interactive System for Controllable 3D Scene Generation [57.048647153684485]
iControl3Dは、ユーザがカスタマイズ可能な3Dシーンを正確なコントロールで生成およびレンダリングできるようにする、新しいインタラクティブシステムである。
我々は3Dメッシュを仲介プロキシとして利用し、個別の2D拡散生成画像を結合的で統一された3Dシーン表現に反復的にマージする。
私たちのニューラルレンダリングインターフェースは、ユーザが自分のシーンのラディアンスフィールドをオンラインで構築し、シーン全体をナビゲートすることを可能にする。
論文 参考訳(メタデータ) (2024-08-03T06:35:09Z) - CC3D: Layout-Conditioned Generation of Compositional 3D Scenes [49.281006972028194]
本稿では,複雑な3次元シーンを2次元セマンティックなシーンレイアウトで合成する条件生成モデルであるCC3Dを紹介する。
合成3D-FRONTと実世界のKITTI-360データセットに対する評価は、我々のモデルが視覚的および幾何学的品質を改善したシーンを生成することを示す。
論文 参考訳(メタデータ) (2023-03-21T17:59:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。