論文の概要: AnyStyle: Single-Pass Multimodal Stylization for 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2602.04043v1
- Date: Tue, 03 Feb 2026 22:19:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.29276
- Title: AnyStyle: Single-Pass Multimodal Stylization for 3D Gaussian Splatting
- Title(参考訳): AnyStyle:3次元ガウス平滑化のためのシングルパスマルチモーダルスティル化
- Authors: Joanna Kaleta, Bartosz Świrta, Kacper Kania, Przemysław Spurek, Marek Kowalski,
- Abstract要約: フィードフォワード3D再構成・スタイリングフレームワークであるAnyStyleを導入し,マルチモーダルコンディショニングによるポーズフリー・ゼロショットスタイリングを実現する。
本手法はテキスト入力と視覚入力の両方をサポートし,自然言語記述や参照画像を用いてシーンの外観を制御できる。
実験により、AnyStyleは、高品質な幾何再構成を保ちつつ、フィードフォワードスタイル化手法よりもスタイル制御性を向上させることが示された。
- 参考スコア(独自算出の注目度): 3.8078651836376007
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing demand for rapid and scalable 3D asset creation has driven interest in feed-forward 3D reconstruction methods, with 3D Gaussian Splatting (3DGS) emerging as an effective scene representation. While recent approaches have demonstrated pose-free reconstruction from unposed image collections, integrating stylization or appearance control into such pipelines remains underexplored. Existing attempts largely rely on image-based conditioning, which limits both controllability and flexibility. In this work, we introduce AnyStyle, a feed-forward 3D reconstruction and stylization framework that enables pose-free, zero-shot stylization through multimodal conditioning. Our method supports both textual and visual style inputs, allowing users to control the scene appearance using natural language descriptions or reference images. We propose a modular stylization architecture that requires only minimal architectural modifications and can be integrated into existing feed-forward 3D reconstruction backbones. Experiments demonstrate that AnyStyle improves style controllability over prior feed-forward stylization methods while preserving high-quality geometric reconstruction. A user study further confirms that AnyStyle achieves superior stylization quality compared to an existing state-of-the-art approach. Repository: https://github.com/joaxkal/AnyStyle.
- Abstract(参考訳): 高速でスケーラブルな3Dアセット作成への需要が高まり、フィードフォワード3D再構築手法への関心が高まり、3Dガウススプラッティング(3DGS)が効果的なシーン表現として登場した。
最近のアプローチでは、ポーズなしのイメージコレクションからの復元が実証されているが、スタイリゼーションや外観制御をそのようなパイプラインに組み込むことは、まだ未定である。
既存の試みは、制御性と柔軟性の両方を制限するイメージベースの条件付けに大きく依存している。
本研究では,フィードフォワード3D再構成・スタイリングフレームワークであるAnyStyleを紹介し,マルチモーダルコンディショニングによるポーズフリー・ゼロショットスタイリングを実現する。
本手法はテキスト入力と視覚入力の両方をサポートし,自然言語記述や参照画像を用いてシーンの外観を制御できる。
本稿では,最小限のアーキテクチャ変更しか必要とせず,既存のフィードフォワード3D再構築バックボーンに統合可能なモジュール型スタイリングアーキテクチャを提案する。
実験により、AnyStyleは、高品質な幾何再構成を保ちつつ、フィードフォワードスタイル化手法よりもスタイル制御性を向上させることが示された。
ユーザ調査では、AnyStyleが既存の最先端アプローチに比べて優れたスタイリゼーション品質を達成していることも確認されている。
リポジトリ: https://github.com/joaxkal/AnyStyle
関連論文リスト
- StyleSculptor: Zero-Shot Style-Controllable 3D Asset Generation with Texture-Geometry Dual Guidance [50.207322685527394]
StyleSculptorは、コンテンツイメージと1つ以上のスタイルイメージからスタイル誘導された3Dアセットを生成するトレーニング不要のアプローチである。
ゼロショット方式でスタイル誘導3D生成を実現し、きめ細かい3Dスタイル制御を可能にする。
実験では、StyleSculptorは、高忠実度3Dアセットの生成において、既存のベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2025-09-16T17:55:20Z) - Styl3R: Instant 3D Stylized Reconstruction for Arbitrary Scenes and Styles [20.23000145819361]
現在の最先端の3Dスタイリング手法は、通常、あらかじめ訓練された表現に芸術的特徴を移すために、計算的に集中的なテスト時間最適化を伴っている。
提案手法は,スパースシーン画像と任意のスタイル画像を用いて,1秒未満で直接3Dスタイリングを実現する手法である。
論文 参考訳(メタデータ) (2025-05-27T11:47:15Z) - Style3D: Attention-guided Multi-view Style Transfer for 3D Object Generation [9.212876623996475]
Style3Dは、コンテンツ画像とスタイル画像からスタイリングされた3Dオブジェクトを生成するための新しいアプローチである。
複数のビューにまたがる構造的特徴とスタイリスティックな特徴の相互作用を確立することにより,本手法は総合的な3Dスタイリゼーションプロセスを実現する。
論文 参考訳(メタデータ) (2024-12-04T18:59:38Z) - StylizedGS: Controllable Stylization for 3D Gaussian Splatting [56.87134037463792]
StylizedGSは知覚因子を適応的に制御する効率的な3Dニューラルスタイル転送フレームワークである。
本手法は,忠実なブラシストロークとフレキシブル制御による幾何整合性を特徴とする高品質なスタイリゼーションを実現する。
論文 参考訳(メタデータ) (2024-04-08T06:32:11Z) - StyleRF: Zero-shot 3D Style Transfer of Neural Radiance Fields [52.19291190355375]
StyleRF(Style Radiance Fields)は、革新的な3Dスタイル転送技術である。
3Dシーンを表現するために、高精細な特徴の明確なグリッドを使用し、ボリュームレンダリングによって高精細な幾何学を確実に復元することができる。
グリッド機能は参照スタイルに従って変換され、それが直接的に高品質のゼロショットスタイルの転送につながる。
論文 参考訳(メタデータ) (2023-03-19T08:26:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。