論文の概要: 3D Gaussian Inpainting with Depth-Guided Cross-View Consistency
- arxiv url: http://arxiv.org/abs/2502.11801v1
- Date: Mon, 17 Feb 2025 13:46:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:14:16.045535
- Title: 3D Gaussian Inpainting with Depth-Guided Cross-View Consistency
- Title(参考訳): Depth-Guided Cross-View Consistencyを用いた3次元ガウス塗装
- Authors: Sheng-Yu Huang, Zi-Ting Chou, Yu-Chiang Frank Wang,
- Abstract要約: 本稿では,3次元の立体インパインティングのための3次元ガウス的インパインティング(3DGIC)のフレームワークを提案する。
当社の3DGICは、さまざまなビューに表示される背景画素を利用して、塗装マスクを更新し、塗装目的のために3DGSを洗練します。
- 参考スコア(独自算出の注目度): 30.951440204237166
- License:
- Abstract: When performing 3D inpainting using novel-view rendering methods like Neural Radiance Field (NeRF) or 3D Gaussian Splatting (3DGS), how to achieve texture and geometry consistency across camera views has been a challenge. In this paper, we propose a framework of 3D Gaussian Inpainting with Depth-Guided Cross-View Consistency (3DGIC) for cross-view consistent 3D inpainting. Guided by the rendered depth information from each training view, our 3DGIC exploits background pixels visible across different views for updating the inpainting mask, allowing us to refine the 3DGS for inpainting purposes.Through extensive experiments on benchmark datasets, we confirm that our 3DGIC outperforms current state-of-the-art 3D inpainting methods quantitatively and qualitatively.
- Abstract(参考訳): ニューラルレイディアンス・フィールド(NeRF)や3Dガウス・スプレイティング(3DGS)のような新しいビューレンダリング手法を用いて3Dインペイントを行う場合、カメラビュー間のテクスチャと幾何の整合性を実現するかが課題である。
本稿では,Depth-Guided Cross-View Consistency(3DGIC)を用いた3次元ガウス塗装のフレームワークを提案する。
各トレーニングビューからの描画深度情報により、3DGICは、異なるビューから見える背景画素を利用して塗装マスクを更新し、塗装目的のために3DGSを洗練し、ベンチマークデータセットでの広範な実験により、我々の3DGICが現在最先端の3D塗装方法より定量的に質的に優れていることを確認した。
関連論文リスト
- MVS-GS: High-Quality 3D Gaussian Splatting Mapping via Online Multi-View Stereo [9.740087094317735]
オンライン多視点ステレオ手法を用いた高品質な3DGSモデリングのための新しいフレームワークを提案する。
本手法は,局所時間窓から逐次フレームを用いてMVS深度を推定し,包括的深度改善手法を適用した。
実験の結果,本手法は最先端の高密度SLAM法より優れていた。
論文 参考訳(メタデータ) (2024-12-26T09:20:04Z) - ART3D: 3D Gaussian Splatting for Text-Guided Artistic Scenes Generation [18.699440994076003]
ART3Dは拡散モデルと3Dガウススプラッティング技術を組み合わせた新しいフレームワークである。
深度情報と初期芸術画像を活用することにより,点雲マップを生成する。
また、3Dシーンの整合性を高めるための奥行き整合性モジュールを提案する。
論文 参考訳(メタデータ) (2024-05-17T03:19:36Z) - InFusion: Inpainting 3D Gaussians via Learning Depth Completion from Diffusion Prior [36.23604779569843]
3Dガウスアンは、最近、新しいビュー合成の効率的な表現として現れた。
本研究は、その編集性について、特に塗装作業に焦点を当てて研究する。
2Dインペイントと比較すると、3Dガウスのクルックスは、導入された点のレンダリング関連性を理解することである。
論文 参考訳(メタデータ) (2024-04-17T17:59:53Z) - Sketch3D: Style-Consistent Guidance for Sketch-to-3D Generation [55.73399465968594]
本稿では,テキスト記述と一致する色と入力スケッチに整合した形状のリアルな3Dアセットを生成するための,新しい生成パラダイムSketch3Dを提案する。
3つの戦略は、3次元ガウスの最適化、すなわち分布伝達機構による構造最適化、直感的なMSE損失による色最適化、CLIPに基づく幾何学的類似性損失によるスケッチ類似性最適化である。
論文 参考訳(メタデータ) (2024-04-02T11:03:24Z) - Hybrid Explicit Representation for Ultra-Realistic Head Avatars [55.829497543262214]
我々は,超現実的な頭部アバターを作成し,それをリアルタイムにレンダリングする新しい手法を提案する。
UVマップされた3Dメッシュは滑らかな表面のシャープでリッチなテクスチャを捉えるのに使われ、3Dガウス格子は複雑な幾何学構造を表現するために用いられる。
モデル化された結果が最先端のアプローチを上回る実験を行ないました。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z) - Neural 3D Strokes: Creating Stylized 3D Scenes with Vectorized 3D
Strokes [20.340259111585873]
ニューラル3Dストロークス(Neural 3D Strokes)は、多視点2D画像から任意の新しいビューで3Dシーンのスタイリング画像を生成する新しい技術である。
提案手法は,ベクトルストロークによる人間のアートワークのプログレッシブ・ペインティングの過程をシミュレートし,イメージ・ツー・ペインティング法からインスピレーションを得ている。
論文 参考訳(メタデータ) (2023-11-27T09:02:21Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - Geometric Correspondence Fields: Learned Differentiable Rendering for 3D
Pose Refinement in the Wild [96.09941542587865]
野生の任意のカテゴリのオブジェクトに対する微分可能レンダリングに基づく新しい3次元ポーズ精細化手法を提案する。
このようにして、3DモデルとRGB画像のオブジェクトを正確に整列し、3Dポーズ推定を大幅に改善する。
我々は、Pix3Dデータセットの挑戦に対するアプローチを評価し、複数のメトリクスにおける最先端の精錬手法と比較して、最大55%の改善を実現した。
論文 参考訳(メタデータ) (2020-07-17T12:34:38Z) - 3D Photography using Context-aware Layered Depth Inpainting [50.66235795163143]
本稿では、1枚のRGB-D入力画像を3D写真に変換する方法を提案する。
学習に基づく着色モデルでは,新しい局所的な色と深度を隠蔽領域に合成する。
結果の3D写真は、モーションパララックスで効率よくレンダリングできる。
論文 参考訳(メタデータ) (2020-04-09T17:59:06Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。