論文の概要: FPGS: Feed-Forward Semantic-aware Photorealistic Style Transfer of Large-Scale Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2503.09635v1
- Date: Tue, 11 Mar 2025 23:52:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:51:44.253594
- Title: FPGS: Feed-Forward Semantic-aware Photorealistic Style Transfer of Large-Scale Gaussian Splatting
- Title(参考訳): FPGS:大規模ガウス平板のフィードフォワード・セマンティック・アウェア・フォトリアリスティック・スタイル転送
- Authors: GeonU Kim, Kim Youwang, Lee Hyoseok, Tae-Hyun Oh,
- Abstract要約: FPGSはガウススプラッティングで表される大規模放射場に対するフィードフォワード光実写方式の伝送方式である。
FPGSは、任意の複数のスタイルの参照イメージを最適化することなく、大規模な3Dシーンをスタイリングする。
実験では,FPGSが大規模静的・ダイナミックな3Dシーンに対して,光リアルなクオリティシーンのスタイリングを実現することを実証した。
- 参考スコア(独自算出の注目度): 19.307856423583356
- License:
- Abstract: We present FPGS, a feed-forward photorealistic style transfer method of large-scale radiance fields represented by Gaussian Splatting. FPGS, stylizes large-scale 3D scenes with arbitrary, multiple style reference images without additional optimization while preserving multi-view consistency and real-time rendering speed of 3D Gaussians. Prior arts required tedious per-style optimization or time-consuming per-scene training stage and were limited to small-scale 3D scenes. FPGS efficiently stylizes large-scale 3D scenes by introducing a style-decomposed 3D feature field, which inherits AdaIN's feed-forward stylization machinery, supporting arbitrary style reference images. Furthermore, FPGS supports multi-reference stylization with the semantic correspondence matching and local AdaIN, which adds diverse user control for 3D scene styles. FPGS also preserves multi-view consistency by applying semantic matching and style transfer processes directly onto queried features in 3D space. In experiments, we demonstrate that FPGS achieves favorable photorealistic quality scene stylization for large-scale static and dynamic 3D scenes with diverse reference images. Project page: https://kim-geonu.github.io/FPGS/
- Abstract(参考訳): 本稿では,ガウススプラッティングで表される大規模放射場に対するフィードフォワード光実写方式の転送手法であるFPGSを提案する。
FPGSは、任意の複数のスタイルの参照画像を持つ大規模3Dシーンを、複数ビューの一貫性と3Dガウスのリアルタイムレンダリング速度を維持しながら、追加の最適化なしにスタイリングする。
以前の芸術では、スタイルごとの退屈な最適化や、シーンごとのトレーニングステージが必要で、小規模の3Dシーンに限られていた。
FPGSは、AdaINのフィードフォワードスタイリゼーション機構を継承し、任意のスタイル参照画像をサポートするスタイル分解型3D機能フィールドを導入することで、大規模3Dシーンを効率的にスタイリングする。
さらに、FPGSはセマンティック対応マッチングとローカルAdaINによるマルチ参照スタイリングをサポートし、3Dシーンスタイルの多様なユーザ制御を追加している。
FPGSはまた、セマンティックマッチングとスタイル転送プロセスを3D空間のクエリー機能に直接適用することで、マルチビューの一貫性を保っている。
実験では,FPGSが様々な参照画像を持つ大規模静的・動的3Dシーンに対して,良好な画質のシーンスタイリングを実現することを実証した。
プロジェクトページ: https://kim-geonu.github.io/FPGS/
関連論文リスト
- Decoupling Appearance Variations with 3D Consistent Features in Gaussian Splatting [50.98884579463359]
本稿では,プラグアンドプレイ方式で外観変化を分離するDAVIGSを提案する。
ガウスレベルではなく画像レベルでレンダリング結果を変換することにより、最適化時間とメモリオーバーヘッドを最小限に抑えた外観変化をモデル化できる。
提案手法をいくつかの外観変化シーンで検証し,トレーニング時間とメモリ使用量を最小限に抑えて,最先端のレンダリング品質を実現することを実証した。
論文 参考訳(メタデータ) (2025-01-18T14:55:58Z) - GSplatLoc: Grounding Keypoint Descriptors into 3D Gaussian Splatting for Improved Visual Localization [1.4466437171584356]
軽量なXFeat特徴抽出器から高密度かつ堅牢なキーポイント記述器を3DGSに統合する2段階の手順を提案する。
第2段階では、レンダリングベースの光度ワープ損失を最小限に抑え、初期ポーズ推定を洗練させる。
広く使われている屋内および屋外データセットのベンチマークは、最近のニューラルレンダリングベースのローカライゼーション手法よりも改善されていることを示している。
論文 参考訳(メタデータ) (2024-09-24T23:18:32Z) - StyleSplat: 3D Object Style Transfer with Gaussian Splatting [0.3374875022248866]
スタイル転送は、さまざまな芸術スタイルで3Dアセットを強化し、創造的な表現を変革する。
本稿では,3次元ガウス表現シーンにおける3次元オブジェクトのスタイリング手法であるStyleSplatを紹介する。
様々な3Dシーンやスタイルにまたがって有効性を示し、3D生成における制御とカスタマイズの強化を示す。
論文 参考訳(メタデータ) (2024-07-12T17:55:08Z) - WE-GS: An In-the-wild Efficient 3D Gaussian Representation for Unconstrained Photo Collections [8.261637198675151]
制約のない写真コレクションからの新規ビュー合成(NVS)は、コンピュータグラフィックスでは困難である。
写真コレクションからのシーン再構築のための効率的なポイントベース微分可能レンダリングフレームワークを提案する。
提案手法は、新しいビューのレンダリング品質と、高収束・レンダリング速度の外観合成において、既存のアプローチよりも優れている。
論文 参考訳(メタデータ) (2024-06-04T15:17:37Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - Gaussian Splatting in Style [32.41970914897462]
3Dシーン化は、ニューラルスタイルの3Dへの移行作業を拡張する。
この問題における重要な課題は、複数の視点でスタイリングされた外観の均一性を維持することである。
本稿では,実時間で高品質なスタイリングされた新しいビューを生成できる,スタイル画像のコレクションを訓練した新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-03-13T13:06:31Z) - StyleGaussian: Instant 3D Style Transfer with Gaussian Splatting [141.05924680451804]
StyleGaussianは、新しい3Dスタイル転送技術である。
任意の画像のスタイルを毎秒10フレームの3Dシーンに即時転送できる(fps)。
論文 参考訳(メタデータ) (2024-03-12T16:44:52Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - FPRF: Feed-Forward Photorealistic Style Transfer of Large-Scale 3D
Neural Radiance Fields [23.705795612467956]
FPRFは、任意の複数のスタイルの参照イメージを最適化することなく、大規模な3Dシーンをスタイリングする。
FPRFは、多彩な参照画像を持つ大規模シーンに対して、好適なフォトリアリスティック品質の3Dシーンスタイリングを実現する。
論文 参考訳(メタデータ) (2024-01-10T19:27:28Z) - SceneWiz3D: Towards Text-guided 3D Scene Composition [134.71933134180782]
既存のアプローチでは、大規模なテキスト・ツー・イメージモデルを使用して3D表現を最適化するか、オブジェクト中心のデータセット上で3Dジェネレータをトレーニングする。
テキストから高忠実度3Dシーンを合成する新しい手法であるSceneWiz3Dを紹介する。
論文 参考訳(メタデータ) (2023-12-13T18:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。