論文の概要: ArtNVG: Content-Style Separated Artistic Neighboring-View Gaussian Stylization
- arxiv url: http://arxiv.org/abs/2412.18783v1
- Date: Wed, 25 Dec 2024 05:19:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:26:42.788722
- Title: ArtNVG: Content-Style Separated Artistic Neighboring-View Gaussian Stylization
- Title(参考訳): ArtNVG: コンテンツスタイルの分離された芸術的隣人-ガウス的スチル化
- Authors: Zixiao Gu, Mengtian Li, Ruhua Chen, Zhongxia Ji, Sichen Guo, Zhenye Zhang, Guangnan Ye, Zuo Hu,
- Abstract要約: ArtNVGは、レファレンススタイルのイメージを活用することで、スタイリングされた3Dシーンを効率的に生成する革新的な3Dスタイリングフレームワークである。
本フレームワークは,コンテンツスタイル分離制御(Content-Style Separated Control)とAttention-based Neighboring-View Alignment(Neighboring-View Alignment)という,高品質な3Dスタイリングを実現する。
- 参考スコア(独自算出の注目度): 4.362923197888669
- License:
- Abstract: As demand from the film and gaming industries for 3D scenes with target styles grows, the importance of advanced 3D stylization techniques increases. However, recent methods often struggle to maintain local consistency in color and texture throughout stylized scenes, which is essential for maintaining aesthetic coherence. To solve this problem, this paper introduces ArtNVG, an innovative 3D stylization framework that efficiently generates stylized 3D scenes by leveraging reference style images. Built on 3D Gaussian Splatting (3DGS), ArtNVG achieves rapid optimization and rendering while upholding high reconstruction quality. Our framework realizes high-quality 3D stylization by incorporating two pivotal techniques: Content-Style Separated Control and Attention-based Neighboring-View Alignment. Content-Style Separated Control uses the CSGO model and the Tile ControlNet to decouple the content and style control, reducing risks of information leakage. Concurrently, Attention-based Neighboring-View Alignment ensures consistency of local colors and textures across neighboring views, significantly improving visual quality. Extensive experiments validate that ArtNVG surpasses existing methods, delivering superior results in content preservation, style alignment, and local consistency.
- Abstract(参考訳): 映画やゲーム業界からのターゲットスタイルの3Dシーンへの需要が高まるにつれ、高度な3Dスタイリング技術の重要性が高まっている。
しかし、近年の手法は、美的コヒーレンスを維持するために欠かせない、スタイリングされたシーン全体を通して、色とテクスチャの局所的な一貫性を維持するのに苦労することが多い。
そこで本研究では,レファレンススタイルのイメージを利用して,スタイリングされた3Dシーンを効率よく生成する,革新的な3DスタイリングフレームワークであるArtNVGを紹介する。
ArtNVG は 3D Gaussian Splatting (3DGS) 上に構築されており、高速な最適化とレンダリングを実現し、高い再構築品質を維持している。
本フレームワークは,コンテンツスタイル分離制御(Content-Style Separated Control)とAttention-based Neighboring-View Alignment(Neighboring-View Alignment)という,高品質な3Dスタイリングを実現する。
Content-Style Separated ControlはCSGOモデルとTile ControlNetを使用してコンテンツとスタイルコントロールを分離し、情報漏洩のリスクを低減する。
同時に、アテンションベースのNeighboring-View Alignmentは、近隣のビューにまたがる局所的な色やテクスチャの一貫性を確保し、視覚的品質を著しく向上させる。
大規模な実験により、ArtNVGは既存の手法を超え、コンテンツ保存、スタイルアライメント、局所的な一貫性において優れた結果をもたらすことが検証された。
関連論文リスト
- StyleSplat: 3D Object Style Transfer with Gaussian Splatting [0.3374875022248866]
スタイル転送は、さまざまな芸術スタイルで3Dアセットを強化し、創造的な表現を変革する。
本稿では,3次元ガウス表現シーンにおける3次元オブジェクトのスタイリング手法であるStyleSplatを紹介する。
様々な3Dシーンやスタイルにまたがって有効性を示し、3D生成における制御とカスタマイズの強化を示す。
論文 参考訳(メタデータ) (2024-07-12T17:55:08Z) - ART3D: 3D Gaussian Splatting for Text-Guided Artistic Scenes Generation [18.699440994076003]
ART3Dは拡散モデルと3Dガウススプラッティング技術を組み合わせた新しいフレームワークである。
深度情報と初期芸術画像を活用することにより,点雲マップを生成する。
また、3Dシーンの整合性を高めるための奥行き整合性モジュールを提案する。
論文 参考訳(メタデータ) (2024-05-17T03:19:36Z) - CoARF: Controllable 3D Artistic Style Transfer for Radiance Fields [7.651502365257349]
本稿では,制御可能な3Dシーンスタイリングのための新しいアルゴリズムであるCoARFを紹介する。
CoARFは、ユーザが指定したスタイル転送の制御性と、より正確な特徴マッチングを備えた優れたスタイル転送品質を提供する。
論文 参考訳(メタデータ) (2024-04-23T12:22:32Z) - RefFusion: Reference Adapted Diffusion Models for 3D Scene Inpainting [63.567363455092234]
RefFusionは,画像インペイント拡散モデルのマルチスケールパーソナライズに基づく,新しい3Dインペイント手法である。
我々のフレームワークは、制御性を維持しながら、オブジェクト除去の最先端の成果を達成する。
論文 参考訳(メタデータ) (2024-04-16T17:50:02Z) - StyleCity: Large-Scale 3D Urban Scenes Stylization [16.017767577678253]
StyleCityは、大規模都市シーンのための視覚とテキストによるテクスチャスタイリングシステムである。
StyleCityは、大規模な都市シーンの3Dテクスチャメッシュをセマンティックスに意識したスタイルでスタイリングする。
論文 参考訳(メタデータ) (2024-04-16T15:58:49Z) - StylizedGS: Controllable Stylization for 3D Gaussian Splatting [53.0225128090909]
StylizedGSは知覚因子を適応的に制御する効率的な3Dニューラルスタイル転送フレームワークである。
本手法は,忠実なブラシストロークとフレキシブル制御による幾何整合性を特徴とする高品質なスタイリゼーションを実現する。
論文 参考訳(メタデータ) (2024-04-08T06:32:11Z) - SceneWiz3D: Towards Text-guided 3D Scene Composition [134.71933134180782]
既存のアプローチでは、大規模なテキスト・ツー・イメージモデルを使用して3D表現を最適化するか、オブジェクト中心のデータセット上で3Dジェネレータをトレーニングする。
テキストから高忠実度3Dシーンを合成する新しい手法であるSceneWiz3Dを紹介する。
論文 参考訳(メタデータ) (2023-12-13T18:59:30Z) - DeformToon3D: Deformable 3D Toonification from Neural Radiance Fields [96.0858117473902]
3Dトーン化には、テクスチャ化された幾何学とテクスチャで、アートドメインのスタイルをターゲットの3D顔に転送することが含まれる。
階層型3D GANに適した効果的なトーン化フレームワークであるDeformToon3Dを提案する。
提案手法は3次元トーン化を幾何学とテクスチャスタイリングのサブプロブレムに分解し,元の潜伏空間をよりよく保存する。
論文 参考訳(メタデータ) (2023-09-08T16:17:45Z) - StyleRF: Zero-shot 3D Style Transfer of Neural Radiance Fields [52.19291190355375]
StyleRF(Style Radiance Fields)は、革新的な3Dスタイル転送技術である。
3Dシーンを表現するために、高精細な特徴の明確なグリッドを使用し、ボリュームレンダリングによって高精細な幾何学を確実に復元することができる。
グリッド機能は参照スタイルに従って変換され、それが直接的に高品質のゼロショットスタイルの転送につながる。
論文 参考訳(メタデータ) (2023-03-19T08:26:06Z) - 3DStyleNet: Creating 3D Shapes with Geometric and Texture Style
Variations [81.45521258652734]
本稿では,3次元オブジェクトの幾何学的・テクスチャ的バリエーションを多用する手法を提案する。
提案手法は,多くの新しいスタイルの形状を作成でき,その結果,無駄な3Dコンテンツ作成とスタイルウェアデータ拡張を実現している。
論文 参考訳(メタデータ) (2021-08-30T02:28:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。