論文の概要: Jigsaw3D: Disentangled 3D Style Transfer via Patch Shuffling and Masking
- arxiv url: http://arxiv.org/abs/2510.10497v1
- Date: Sun, 12 Oct 2025 08:22:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.978001
- Title: Jigsaw3D: Disentangled 3D Style Transfer via Patch Shuffling and Masking
- Title(参考訳): Jigsaw3D: パッチシャッフルとマスキングによる3Dスタイルのトランスファー
- Authors: Yuteng Ye, Zheng Zhang, Qinchuan Zhang, Di Wang, Youjia Zhang, Wenxiao Zhang, Wei Yang, Yuan Liu,
- Abstract要約: 制御可能な3Dスタイルの転送は、3Dアセットをリフォームし、そのテクスチャが基準画像と一致するようにし、整合性とマルチビューの整合性を維持する。
Jigsaw3Dは、コンテンツからスタイルを分離し、高速でビューに一貫性のあるスタイリングを可能にするマルチビュー拡散ベースのパイプラインである。
- 参考スコア(独自算出の注目度): 22.27602596205736
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Controllable 3D style transfer seeks to restyle a 3D asset so that its textures match a reference image while preserving the integrity and multi-view consistency. The prevalent methods either rely on direct reference style token injection or score-distillation from 2D diffusion models, which incurs heavy per-scene optimization and often entangles style with semantic content. We introduce Jigsaw3D, a multi-view diffusion based pipeline that decouples style from content and enables fast, view-consistent stylization. Our key idea is to leverage the jigsaw operation - spatial shuffling and random masking of reference patches - to suppress object semantics and isolate stylistic statistics (color palettes, strokes, textures). We integrate these style cues into a multi-view diffusion model via reference-to-view cross-attention, producing view-consistent stylized renderings conditioned on the input mesh. The renders are then style-baked onto the surface to yield seamless textures. Across standard 3D stylization benchmarks, Jigsaw3D achieves high style fidelity and multi-view consistency with substantially lower latency, and generalizes to masked partial reference stylization, multi-object scene styling, and tileable texture generation. Project page is available at: https://babahui.github.io/jigsaw3D.github.io/
- Abstract(参考訳): 制御可能な3Dスタイルの転送は、3Dアセットをリフォームし、そのテクスチャが基準画像と一致するようにし、整合性とマルチビューの整合性を維持する。
一般的な手法は、直接参照型トークン注入か、2次元拡散モデルからのスコア蒸留に依存しており、シーンごとの最適化が重く、しばしばセマンティックコンテンツとスタイルが絡み合っている。
Jigsaw3Dは、コンテンツからスタイルを分離し、高速でビューに一貫性のあるスタイリングを可能にするマルチビュー拡散ベースのパイプラインである。
私たちのキーとなるアイデアは、ジグソー操作(参照パッチの空間シャッフルとランダムマスク)を活用して、オブジェクトのセマンティクスを抑え、スタイル統計(カラーパレット、ストローク、テクスチャ)を分離することです。
我々は、これらのスタイルキューを参照対ビューのクロスアテンションを介して多視点拡散モデルに統合し、入力メッシュに条件付きビュー一貫性のあるスタイル化レンダリングを生成する。
レンダリングは、表面上でスタイルベースされ、シームレスなテクスチャが生成される。
標準の3Dスタイリングベンチマークでは、Jigsaw3Dは高いスタイルの忠実さと低レイテンシでマルチビューの一貫性を実現し、マスク付き部分参照スタイリゼーション、マルチオブジェクトシーンスタイリング、タイル状テクスチャ生成に一般化する。
プロジェクトページは、https://babahui.github.io/jigsaw3D.github.io/で公開されている。
関連論文リスト
- SSGaussian: Semantic-Aware and Structure-Preserving 3D Style Transfer [57.723850794113055]
本研究では,事前学習した2次元拡散モデルから事前知識を統合する新しい3次元移動パイプラインを提案する。
パイプラインは2つの重要なステージで構成されています。
2つ目は、スタイリングされたキービュー間のインスタンスレベルの一貫性を効果的に活用し、それを3D表現に転送する、インスタンスレベルのスタイル転送である。
論文 参考訳(メタデータ) (2025-09-04T16:40:44Z) - ReStyle3D: Scene-Level Appearance Transfer with Semantic Correspondences [33.06053818091165]
ReStyle3Dは、シーンレベルの外観を1つのスタイルのイメージから、複数のビューで表現された現実世界のシーンに転送するためのフレームワークである。
明示的な意味対応と多視点整合性を組み合わせることで、正確で一貫性のあるスタイリングを実現する。
私たちのコード、事前訓練されたモデル、データセットは、インテリアデザイン、仮想ステージング、そして3D一貫性のあるスタイリングにおける新しいアプリケーションをサポートするために、公開されます。
論文 参考訳(メタデータ) (2025-02-14T18:54:21Z) - Style3D: Attention-guided Multi-view Style Transfer for 3D Object Generation [9.212876623996475]
Style3Dは、コンテンツ画像とスタイル画像からスタイリングされた3Dオブジェクトを生成するための新しいアプローチである。
複数のビューにまたがる構造的特徴とスタイリスティックな特徴の相互作用を確立することにより,本手法は総合的な3Dスタイリゼーションプロセスを実現する。
論文 参考訳(メタデータ) (2024-12-04T18:59:38Z) - Tex4D: Zero-shot 4D Scene Texturing with Video Diffusion Models [54.35214051961381]
3Dメッシュはコンピュータビジョンとグラフィックスにおいて、アニメーションの効率と映画、ゲーム、AR、VRにおける最小限のメモリ使用のために広く利用されている。
しかし、メッシュのための時間的一貫性と現実的なテクスチャを作成することは、プロのアーティストにとって労働集約的だ。
本稿では、メッシュ配列から固有の幾何学とビデオ拡散モデルを統合することで、一貫したテクスチャを生成する3Dテクスチャシーケンスを提案する。
論文 参考訳(メタデータ) (2024-10-14T17:59:59Z) - 3DStyle-Diffusion: Pursuing Fine-grained Text-driven 3D Stylization with
2D Diffusion Models [102.75875255071246]
テキスト駆動型スタイリングによる3Dコンテンツ作成は、マルチメディアとグラフィックコミュニティにとって根本的な課題となっている。
2次元拡散モデルから制御可能な外観と幾何学的ガイダンスを付加した3次元メッシュのきめ細かいスタイリングをトリガーする新しい3DStyle-Diffusionモデルを提案する。
論文 参考訳(メタデータ) (2023-11-09T15:51:27Z) - ARTIC3D: Learning Robust Articulated 3D Shapes from Noisy Web Image
Collections [71.46546520120162]
単眼画像から動物体のような3D関節形状を推定することは、本質的に困難である。
本稿では,スパース画像コレクションから各物体の形状を再構築する自己教師型フレームワークARTIC3Dを提案する。
我々は、剛性部分変換の下で、描画された形状とテクスチャを微調整することで、現実的なアニメーションを作成する。
論文 参考訳(メタデータ) (2023-06-07T17:47:50Z) - StyleMesh: Style Transfer for Indoor 3D Scene Reconstructions [11.153966202832933]
屋内シーンのメッシュ再構成にスタイル転送を適用する。
これにより、お気に入りのアーティストのスタイルで描かれた3D環境を体験するといったVRアプリケーションが可能になる。
論文 参考訳(メタデータ) (2021-12-02T18:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。