論文の概要: AnyStyle: Single-Pass Multimodal Stylization for 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2602.04043v1
- Date: Tue, 03 Feb 2026 22:19:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.29276
- Title: AnyStyle: Single-Pass Multimodal Stylization for 3D Gaussian Splatting
- Title(参考訳): AnyStyle:3次元ガウス平滑化のためのシングルパスマルチモーダルスティル化
- Authors: Joanna Kaleta, Bartosz Świrta, Kacper Kania, Przemysław Spurek, Marek Kowalski,
- Abstract要約: フィードフォワード3D再構成・スタイリングフレームワークであるAnyStyleを導入し,マルチモーダルコンディショニングによるポーズフリー・ゼロショットスタイリングを実現する。
本手法はテキスト入力と視覚入力の両方をサポートし,自然言語記述や参照画像を用いてシーンの外観を制御できる。
実験により、AnyStyleは、高品質な幾何再構成を保ちつつ、フィードフォワードスタイル化手法よりもスタイル制御性を向上させることが示された。
- 参考スコア(独自算出の注目度): 3.8078651836376007
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing demand for rapid and scalable 3D asset creation has driven interest in feed-forward 3D reconstruction methods, with 3D Gaussian Splatting (3DGS) emerging as an effective scene representation. While recent approaches have demonstrated pose-free reconstruction from unposed image collections, integrating stylization or appearance control into such pipelines remains underexplored. Existing attempts largely rely on image-based conditioning, which limits both controllability and flexibility. In this work, we introduce AnyStyle, a feed-forward 3D reconstruction and stylization framework that enables pose-free, zero-shot stylization through multimodal conditioning. Our method supports both textual and visual style inputs, allowing users to control the scene appearance using natural language descriptions or reference images. We propose a modular stylization architecture that requires only minimal architectural modifications and can be integrated into existing feed-forward 3D reconstruction backbones. Experiments demonstrate that AnyStyle improves style controllability over prior feed-forward stylization methods while preserving high-quality geometric reconstruction. A user study further confirms that AnyStyle achieves superior stylization quality compared to an existing state-of-the-art approach. Repository: https://github.com/joaxkal/AnyStyle.
- Abstract(参考訳): 高速でスケーラブルな3Dアセット作成への需要が高まり、フィードフォワード3D再構築手法への関心が高まり、3Dガウススプラッティング(3DGS)が効果的なシーン表現として登場した。
最近のアプローチでは、ポーズなしのイメージコレクションからの復元が実証されているが、スタイリゼーションや外観制御をそのようなパイプラインに組み込むことは、まだ未定である。
既存の試みは、制御性と柔軟性の両方を制限するイメージベースの条件付けに大きく依存している。
本研究では,フィードフォワード3D再構成・スタイリングフレームワークであるAnyStyleを紹介し,マルチモーダルコンディショニングによるポーズフリー・ゼロショットスタイリングを実現する。
本手法はテキスト入力と視覚入力の両方をサポートし,自然言語記述や参照画像を用いてシーンの外観を制御できる。
本稿では,最小限のアーキテクチャ変更しか必要とせず,既存のフィードフォワード3D再構築バックボーンに統合可能なモジュール型スタイリングアーキテクチャを提案する。
実験により、AnyStyleは、高品質な幾何再構成を保ちつつ、フィードフォワードスタイル化手法よりもスタイル制御性を向上させることが示された。
ユーザ調査では、AnyStyleが既存の最先端アプローチに比べて優れたスタイリゼーション品質を達成していることも確認されている。
リポジトリ: https://github.com/joaxkal/AnyStyle
関連論文リスト
- Stylos: Multi-View 3D Stylization with Single-Forward Gaussian Splatting [11.720515089961339]
提案するStylosは、3Dスタイル転送のための単一フォワード3Dガウスフレームワークで、未提示コンテンツで動作する。
Stylosは、シーンごとの最適化や事前に計算されたポーズなしで、スタイリングされた3Dシーンを合成する。
複数のデータセットにわたる実験は、Stylosが高品質なゼロショットスタイリングを提供することを示した。
論文 参考訳(メタデータ) (2025-09-30T16:09:13Z) - StyleSculptor: Zero-Shot Style-Controllable 3D Asset Generation with Texture-Geometry Dual Guidance [50.207322685527394]
StyleSculptorは、コンテンツイメージと1つ以上のスタイルイメージからスタイル誘導された3Dアセットを生成するトレーニング不要のアプローチである。
ゼロショット方式でスタイル誘導3D生成を実現し、きめ細かい3Dスタイル制御を可能にする。
実験では、StyleSculptorは、高忠実度3Dアセットの生成において、既存のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2025-09-16T17:55:20Z) - Improved 3D Scene Stylization via Text-Guided Generative Image Editing with Region-Based Control [47.14550252881733]
ビューの整合性を保ちながら3次元スタイリゼーションの質を高める技術を導入し、任意の地域制御型スタイル転送を提供する。
本手法は,ソースビューのマルチビュー2D画像を用いて,初期3次元表現を再学習することで,スタイリゼーションを実現する。
本稿では,市販モデルのセグメンテーションマスクを用いて,異なる画像領域にスタイルを適用可能なマルチRegion Importance-Weighted Sliced Wasserstein Distance Lossを提案する。
論文 参考訳(メタデータ) (2025-09-04T15:01:01Z) - Styl3R: Instant 3D Stylized Reconstruction for Arbitrary Scenes and Styles [20.23000145819361]
現在の最先端の3Dスタイリング手法は、通常、あらかじめ訓練された表現に芸術的特徴を移すために、計算的に集中的なテスト時間最適化を伴っている。
提案手法は,スパースシーン画像と任意のスタイル画像を用いて,1秒未満で直接3Dスタイリングを実現する手法である。
論文 参考訳(メタデータ) (2025-05-27T11:47:15Z) - Style3D: Attention-guided Multi-view Style Transfer for 3D Object Generation [9.212876623996475]
Style3Dは、コンテンツ画像とスタイル画像からスタイリングされた3Dオブジェクトを生成するための新しいアプローチである。
複数のビューにまたがる構造的特徴とスタイリスティックな特徴の相互作用を確立することにより,本手法は総合的な3Dスタイリゼーションプロセスを実現する。
論文 参考訳(メタデータ) (2024-12-04T18:59:38Z) - Style-NeRF2NeRF: 3D Style Transfer From Style-Aligned Multi-View Images [54.56070204172398]
本稿では,3次元シーンをスタイリングするための簡易かつ効果的なパイプラインを提案する。
我々は、スタイル整列画像-画像拡散モデルにより生成されたスタイリング画像を用いて、ソースNeRFモデルを精細化し、3Dスタイルの転送を行う。
本手法は,現実の3Dシーンに多彩な芸術的スタイルを,競争力のある品質で伝達できることを実証する。
論文 参考訳(メタデータ) (2024-06-19T09:36:18Z) - StylizedGS: Controllable Stylization for 3D Gaussian Splatting [56.87134037463792]
StylizedGSは知覚因子を適応的に制御する効率的な3Dニューラルスタイル転送フレームワークである。
本手法は,忠実なブラシストロークとフレキシブル制御による幾何整合性を特徴とする高品質なスタイリゼーションを実現する。
論文 参考訳(メタデータ) (2024-04-08T06:32:11Z) - 3DStyle-Diffusion: Pursuing Fine-grained Text-driven 3D Stylization with
2D Diffusion Models [102.75875255071246]
テキスト駆動型スタイリングによる3Dコンテンツ作成は、マルチメディアとグラフィックコミュニティにとって根本的な課題となっている。
2次元拡散モデルから制御可能な外観と幾何学的ガイダンスを付加した3次元メッシュのきめ細かいスタイリングをトリガーする新しい3DStyle-Diffusionモデルを提案する。
論文 参考訳(メタデータ) (2023-11-09T15:51:27Z) - StyleRF: Zero-shot 3D Style Transfer of Neural Radiance Fields [52.19291190355375]
StyleRF(Style Radiance Fields)は、革新的な3Dスタイル転送技術である。
3Dシーンを表現するために、高精細な特徴の明確なグリッドを使用し、ボリュームレンダリングによって高精細な幾何学を確実に復元することができる。
グリッド機能は参照スタイルに従って変換され、それが直接的に高品質のゼロショットスタイルの転送につながる。
論文 参考訳(メタデータ) (2023-03-19T08:26:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。