論文の概要: VIRGi: View-dependent Instant Recoloring of 3D Gaussians Splats
- arxiv url: http://arxiv.org/abs/2603.02986v1
- Date: Tue, 03 Mar 2026 13:41:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.820246
- Title: VIRGi: View-dependent Instant Recoloring of 3D Gaussians Splats
- Title(参考訳): VIRGi:3次元ガウスプレートのビュー依存のインスタントリカラー化
- Authors: Alessio Mazzucchelli, Ivan Ojeda-Martin, Fernando Rivas-Manzaneque, Elena Garces, Adrian Penate-Sanchez, Francesc Moreno-Noguer,
- Abstract要約: 3DGSでモデル化されたシーンの色を高速に編集する新しいアプローチであるVIRGiを紹介する。
1人のユーザーの重みを微調整することで、色編集はシーン全体にわずか2秒でシームレスに伝達される。
多様なデータセットに対する徹底的な検証は、競合相手に対する有意義な量的および質的な進歩を示している。
- 参考スコア(独自算出の注目度): 53.602701067430075
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D Gaussian Splatting (3DGS) has recently transformed the fields of novel view synthesis and 3D reconstruction due to its ability to accurately model complex 3D scenes and its unprecedented rendering performance. However, a significant challenge persists: the absence of an efficient and photorealistic method for editing the appearance of the scene's content. In this paper we introduce VIRGi, a novel approach for rapidly editing the color of scenes modeled by 3DGS while preserving view-dependent effects such as specular highlights. Key to our method are a novel architecture that separates color into diffuse and view-dependent components, and a multi-view training strategy that integrates image patches from multiple viewpoints. Improving over the conventional single-view batch training, our 3DGS representation provides more accurate reconstruction and serves as a solid representation for the recoloring task. For 3DGS recoloring, we then introduce a rapid scheme requiring only one manually edited image of the scene from the end-user. By fine-tuning the weights of a single MLP, alongside a module for single-shot segmentation of the editable area, the color edits are seamlessly propagated to the entire scene in just two seconds, facilitating real-time interaction and providing control over the strength of the view-dependent effects. An exhaustive validation on diverse datasets demonstrates significant quantitative and qualitative advancements over competitors based on Neural Radiance Fields representations.
- Abstract(参考訳): 3Dガウススティング(3DGS)は、複雑な3Dシーンを正確にモデル化する能力と、前例のないレンダリング性能により、新しいビュー合成と3D再構成の分野を変革した。
しかし、重要な課題は、シーンの内容の外観を編集する効率的でフォトリアリスティックな方法が存在しないことである。
本稿では,3DGS でモデル化されたシーンの色を高速に編集する手法である VIRGi を紹介する。
提案手法の鍵となるのは、色を拡散およびビュー依存のコンポーネントに分離する新しいアーキテクチャと、画像パッチを複数の視点から統合するマルチビュートレーニング戦略である。
従来のシングルビューバッチトレーニングよりも改良された3DGS表現により,より正確な再構築が可能となり,リカラー化作業の確固たる表現として機能する。
3DGSを再カラー化するためには、エンドユーザーからのシーンを手動で編集する1つの画像のみを必要とする高速なスキームを導入する。
編集可能な領域の単発セグメンテーションのためのモジュールとともに、単一のMLPの重みを微調整することにより、色編集はシーン全体にわずか2秒でシームレスに伝播し、リアルタイムのインタラクションを容易にし、ビュー依存効果の強度を制御できる。
多様なデータセットに対する徹底的な検証は、ニューラル・ラディアンス・フィールドの表現に基づく競合相手に対する有意な量的および質的な進歩を示す。
関連論文リスト
- Edit3r: Instant 3D Scene Editing from Sparse Unposed Images [40.421700685587346]
編集3rは、3Dシーンを1パスで再構成・編集するフレームワークである。
Edit3rは,最近のベースラインと比較して,セマンティックアライメントと3D整合性の向上を実現している。
論文 参考訳(メタデータ) (2025-12-31T18:59:53Z) - Tinker: Diffusion's Gift to 3D--Multi-View Consistent Editing From Sparse Inputs without Per-Scene Optimization [42.00640307135371]
我々は高忠実度3D編集のための多用途フレームワークであるTinkerを紹介する。
Tinkerは、1つか2つの画像から、堅牢でマルチビューで一貫した編集を提供する。
私たちは、Tinkerが真にスケーラブルでゼロショットの3D編集への重要な一歩だと信じています。
論文 参考訳(メタデータ) (2025-08-20T16:02:59Z) - Visibility-Uncertainty-guided 3D Gaussian Inpainting via Scene Conceptional Learning [63.94919846010485]
3DGI)は、複数の入力ビューから補完的な視覚的・意味的手がかりを効果的に活用することが困難である。
本稿では,異なる入力ビュー間での3Dポイントの視認性不確実性を計測し,それらを用いて3DGIを誘導する手法を提案する。
ViSibility-uncerTainty-guided 3DGIとシーンコンセプトAl学習を統合し,新しい3DGIフレームワークであるVISTAを構築した。
論文 参考訳(メタデータ) (2025-04-23T06:21:11Z) - ExScene: Free-View 3D Scene Reconstruction with Gaussian Splatting from a Single Image [4.366356163044466]
既存の方法は、単一視点からの視野が狭い低一貫性の3Dシーンを再構成するためにしばしば制限される。
任意の単視点画像から没入型3Dシーンを再構成する2段階パイプラインであるExSceneを提案する。
ExSceneは単一ビュー入力のみを使用して一貫した没入的なシーン再構築を実現する。
論文 参考訳(メタデータ) (2025-03-31T09:33:22Z) - Decoupling Appearance Variations with 3D Consistent Features in Gaussian Splatting [50.98884579463359]
本稿では,プラグアンドプレイ方式で外観変化を分離するDAVIGSを提案する。
ガウスレベルではなく画像レベルでレンダリング結果を変換することにより、最適化時間とメモリオーバーヘッドを最小限に抑えた外観変化をモデル化できる。
提案手法をいくつかの外観変化シーンで検証し,トレーニング時間とメモリ使用量を最小限に抑えて,最先端のレンダリング品質を実現することを実証した。
論文 参考訳(メタデータ) (2025-01-18T14:55:58Z) - WE-GS: An In-the-wild Efficient 3D Gaussian Representation for Unconstrained Photo Collections [8.261637198675151]
制約のない写真コレクションからの新規ビュー合成(NVS)は、コンピュータグラフィックスでは困難である。
写真コレクションからのシーン再構築のための効率的なポイントベース微分可能レンダリングフレームワークを提案する。
提案手法は、新しいビューのレンダリング品質と、高収束・レンダリング速度の外観合成において、既存のアプローチよりも優れている。
論文 参考訳(メタデータ) (2024-06-04T15:17:37Z) - IReNe: Instant Recoloring of Neural Radiance Fields [54.94866137102324]
我々は、NeRFにおける高速、ほぼリアルタイムな色編集を可能にするIReNeを紹介する。
トレーニング済みのNeRFモデルとユーザ対応カラー編集によるトレーニングイメージを併用する。
この調整により、モデルはトレーニング画像からの色変化を正確に表現して、新しいシーンビューを生成することができる。
論文 参考訳(メタデータ) (2024-05-30T09:30:28Z) - Learning Naturally Aggregated Appearance for Efficient 3D Editing [90.57414218888536]
カラーフィールドは、標準画像(canonical image)とも呼ばれる、明示的な2次元の外観アグリゲーションとして学習する。
テクスチャクエリのために3Dポイントを2Dピクセルにマッピングする投影場を標準画像に補完する。
提案手法は,既存のNeRFベースの編集手法に比べて,編集1回あたり20倍高速であることを示す。
論文 参考訳(メタデータ) (2023-12-11T18:59:31Z) - PaletteNeRF: Palette-based Appearance Editing of Neural Radiance Fields [60.66412075837952]
本稿では,3次元色分解に基づくニューラルラジアンスフィールド(NeRF)の出現編集手法であるPaletteNeRFを提案する。
提案手法は,各3次元点の出現を,パレットベースによる線形結合に分解する。
我々は、セマンティック・アウェアな外観編集のためのセマンティック機能を圧縮したフレームワークを拡張した。
論文 参考訳(メタデータ) (2022-12-21T00:20:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。