論文の概要: 3D Stylization via Large Reconstruction Model
- arxiv url: http://arxiv.org/abs/2504.21836v1
- Date: Wed, 30 Apr 2025 17:46:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 17:32:18.360355
- Title: 3D Stylization via Large Reconstruction Model
- Title(参考訳): 大規模再構成モデルによる3次元スティル化
- Authors: Ipek Oztas, Duygu Ceylan, Aysegul Dundar,
- Abstract要約: 本研究では,大規模な画像生成モデルにおける注意機構を利用して視覚的スタイルを捕捉・伝達する2次元スタイリング手法の成功から着想を得た。
視覚的スタイルの画像からそのようなブロックに特徴を注入することにより、シンプルで効果的な3D外観スタイリング法を開発する。
- 参考スコア(独自算出の注目度): 16.51306577413244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the growing success of text or image guided 3D generators, users demand more control over the generation process, appearance stylization being one of them. Given a reference image, this requires adapting the appearance of a generated 3D asset to reflect the visual style of the reference while maintaining visual consistency from multiple viewpoints. To tackle this problem, we draw inspiration from the success of 2D stylization methods that leverage the attention mechanisms in large image generation models to capture and transfer visual style. In particular, we probe if large reconstruction models, commonly used in the context of 3D generation, has a similar capability. We discover that the certain attention blocks in these models capture the appearance specific features. By injecting features from a visual style image to such blocks, we develop a simple yet effective 3D appearance stylization method. Our method does not require training or test time optimization. Through both quantitative and qualitative evaluations, we demonstrate that our approach achieves superior results in terms of 3D appearance stylization, significantly improving efficiency while maintaining high-quality visual outcomes.
- Abstract(参考訳): テキストやイメージガイドによる3Dジェネレータの成功により、ユーザは生成プロセスをよりコントロールする必要がある。
参照画像が与えられた場合、複数の視点から視覚的一貫性を維持しながら、参照の視覚的スタイルを反映するために生成された3Dアセットの外観を調整する必要がある。
この問題に対処するために,大規模な画像生成モデルにおける注意機構を利用して視覚的スタイルを捕捉・伝達する2次元スタイリング手法の成功から着想を得た。
特に,3次元生成の文脈でよく用いられる大規模な再構成モデルに類似した機能があるかどうかを探索する。
これらのモデルにおける特定の注意ブロックが、外観特有の特徴を捉えていることがわかりました。
視覚的スタイルの画像からそのようなブロックに特徴を注入することにより、シンプルで効果的な3D外観スタイリング法を開発する。
私たちの方法は、トレーニングやテストタイムの最適化を必要としない。
定量的および質的評価の両面から,本手法は3次元外観のスタイリゼーションにおいて優れた結果が得られ,高品質な視覚効果を維持しつつ効率を著しく向上することを示した。
関連論文リスト
- Style3D: Attention-guided Multi-view Style Transfer for 3D Object Generation [9.212876623996475]
Style3Dは、コンテンツ画像とスタイル画像からスタイリングされた3Dオブジェクトを生成するための新しいアプローチである。
複数のビューにまたがる構造的特徴とスタイリスティックな特徴の相互作用を確立することにより,本手法は総合的な3Dスタイリゼーションプロセスを実現する。
論文 参考訳(メタデータ) (2024-12-04T18:59:38Z) - Magic-Boost: Boost 3D Generation with Multi-View Conditioned Diffusion [101.15628083270224]
本稿では,高忠実度新鮮映像を合成する多視点拡散モデルを提案する。
次に,得られた粗い結果を精査するための厳密なガイダンスを提供するために,新しい反復更新戦略を導入する。
実験の結果、Magic-Boostは粗いインプットを大幅に強化し、リッチな幾何学的およびテクスチュラルな詳細を持つ高品質な3Dアセットを生成する。
論文 参考訳(メタデータ) (2024-04-09T16:20:03Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - Gaussian Splatting in Style [32.41970914897462]
3Dシーン化は、ニューラルスタイルの3Dへの移行作業を拡張する。
この問題における重要な課題は、複数の視点でスタイリングされた外観の均一性を維持することである。
本稿では,実時間で高品質なスタイリングされた新しいビューを生成できる,スタイル画像のコレクションを訓練した新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-03-13T13:06:31Z) - ViewDiff: 3D-Consistent Image Generation with Text-to-Image Models [65.22994156658918]
実世界のデータから1つの認知過程において多視点画像を生成することを学習する手法を提案する。
我々は、任意の視点でより多くの3D一貫性のある画像をレンダリングする自己回帰生成を設計する。
論文 参考訳(メタデータ) (2024-03-04T07:57:05Z) - Guide3D: Create 3D Avatars from Text and Image Guidance [55.71306021041785]
Guide3Dは拡散モデルに基づく3Dアバター生成のためのテキスト・画像誘導生成モデルである。
我々のフレームワークは、トポロジカルかつ構造的に正しい幾何と高分解能なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-18T17:55:47Z) - HyperStyle3D: Text-Guided 3D Portrait Stylization via Hypernetworks [101.36230756743106]
本論文は,2次元画像の中間表現として,2次元領域と3次元領域を3次元フィールドで橋渡しする3次元GANの成功に着想を得たものである。
本稿では,3次元ポートレートスタイリングのための3次元認識型GANをベースとしたHyperStyle3Dという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-19T07:22:05Z) - 3DStyleNet: Creating 3D Shapes with Geometric and Texture Style
Variations [81.45521258652734]
本稿では,3次元オブジェクトの幾何学的・テクスチャ的バリエーションを多用する手法を提案する。
提案手法は,多くの新しいスタイルの形状を作成でき,その結果,無駄な3Dコンテンツ作成とスタイルウェアデータ拡張を実現している。
論文 参考訳(メタデータ) (2021-08-30T02:28:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。