論文の概要: Sketch-guided Cage-based 3D Gaussian Splatting Deformation
- arxiv url: http://arxiv.org/abs/2411.12168v1
- Date: Tue, 19 Nov 2024 02:18:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:36:00.601259
- Title: Sketch-guided Cage-based 3D Gaussian Splatting Deformation
- Title(参考訳): スケッチ誘導ケージを用いた3次元ガウス平滑化加工
- Authors: Tianhao Xie, Noam Aigerman, Eugene Belilovsky, Tiberiu Popa,
- Abstract要約: 3D Gaussian Splatting (GS)は最も有望な3D表現の1つである。
本稿では,3次元GSモデルの形状を直感的に修正できる3次元GS変形システムを提案する。
- 参考スコア(独自算出の注目度): 19.39701978836869
- License:
- Abstract: 3D Gaussian Splatting (GS) is one of the most promising novel 3D representations that has received great interest in computer graphics and computer vision. While various systems have introduced editing capabilities for 3D GS, such as those guided by text prompts, fine-grained control over deformation remains an open challenge. In this work, we present a novel sketch-guided 3D GS deformation system that allows users to intuitively modify the geometry of a 3D GS model by drawing a silhouette sketch from a single viewpoint. Our approach introduces a new deformation method that combines cage-based deformations with a variant of Neural Jacobian Fields, enabling precise, fine-grained control. Additionally, it leverages large-scale 2D diffusion priors and ControlNet to ensure the generated deformations are semantically plausible. Through a series of experiments, we demonstrate the effectiveness of our method and showcase its ability to animate static 3D GS models as one of its key applications.
- Abstract(参考訳): 3D Gaussian Splatting (GS)は、コンピュータグラフィックスとコンピュータビジョンに大きな関心を寄せた、最も有望な3D表現の1つである。
テキストプロンプトなどの3D GSの編集機能を導入しているが、変形のきめ細かい制御は未解決のままである。
本研究では,3次元GSモデルの形状を直感的に修正できる新しい3次元GS変形システムを提案する。
提案手法では, ケージをベースとした変形とニューラルジャコビアン場の変形を組み合わせ, 精密かつきめ細かな制御を実現する。
さらに、大規模な2D拡散先行とコントロールネットを利用して、生成された変形が意味論的に妥当であることを保証します。
一連の実験を通して,本手法の有効性を実証し,静的な3D GSモデルをその重要な応用例としてアニメーション化できることを実証する。
関連論文リスト
- Generating Editable Head Avatars with 3D Gaussian GANs [57.51487984425395]
従来の3D-Aware Generative Adversarial Network (GAN) は、フォトリアリスティックでビューに一貫性のある3Dヘッド合成を実現する。
本稿では,3次元ガウススプラッティング(3DGS)を明示的な3次元表現として取り入れることで,3次元ヘッドアバターの編集性とアニメーション制御を向上する手法を提案する。
提案手法は,最先端の制御性を備えた高品質な3D認識合成を実現する。
論文 参考訳(メタデータ) (2024-12-26T10:10:03Z) - 3D Gaussian Editing with A Single Image [19.662680524312027]
本稿では,3次元ガウシアンスプラッティングをベースとしたワンイメージ駆動の3Dシーン編集手法を提案する。
提案手法は,ユーザが指定した視点から描画した画像の編集版に合わせるために,3次元ガウスを最適化することを学ぶ。
実験により, 幾何学的詳細処理, 長距離変形, 非剛性変形処理における本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-08-14T13:17:42Z) - GSD: View-Guided Gaussian Splatting Diffusion for 3D Reconstruction [52.04103235260539]
単一視点からの3次元オブジェクト再構成のためのガウススプティング表現に基づく拡散モデル手法を提案する。
モデルはGS楕円体の集合で表される3Dオブジェクトを生成することを学習する。
最終的な再構成されたオブジェクトは、高品質な3D構造とテクスチャを持ち、任意のビューで効率的にレンダリングできる。
論文 参考訳(メタデータ) (2024-07-05T03:43:08Z) - GSDeformer: Direct, Real-time and Extensible Cage-based Deformation for 3D Gaussian Splatting [6.383651750093343]
3次元ガウス散乱(3DGS)におけるケージ変形を実現する方法を提案する。
提案手法は,プロキシポイントクラウド表現を用いたケージベースの変形と3DGSをブリッジする。
実験により、GSDeformerは現在の方法よりも優れた変形結果を生成し、極端な変形下で頑健であり、編集のトレーニングを必要とせず、リアルタイム(60FPS)で動作し、他の3DGSの変種にも拡張可能であることが示された。
論文 参考訳(メタデータ) (2024-05-24T12:16:28Z) - Coin3D: Controllable and Interactive 3D Assets Generation with Proxy-Guided Conditioning [52.81032340916171]
Coin3Dを使えば、ユーザーは基本的な形状から組み立てられた粗い幾何学的プロキシを使って3D生成を制御できる。
本手法は,3次元アセット生成タスクにおいて,制御性と柔軟性に優れる。
論文 参考訳(メタデータ) (2024-05-13T17:56:13Z) - Direct Learning of Mesh and Appearance via 3D Gaussian Splatting [3.4899193297791054]
本稿では、3DGSを明示的な幾何学的表現、すなわちメッシュに組み込んだ学習可能なシーンモデルを提案する。
我々のモデルはメッシュと外観をエンドツーエンドで学習し、メッシュ面に3Dガウスアンを結合し、3DGSの微分レンダリングを行い、測光監督を得る。
論文 参考訳(メタデータ) (2024-05-11T07:56:19Z) - 3D Geometry-aware Deformable Gaussian Splatting for Dynamic View Synthesis [49.352765055181436]
動的ビュー合成のための3次元幾何学的変形可能なガウススメッティング法を提案する。
提案手法は,動的ビュー合成と3次元動的再構成を改良した3次元形状認識変形モデリングを実現する。
論文 参考訳(メタデータ) (2024-04-09T12:47:30Z) - Mesh-based Gaussian Splatting for Real-time Large-scale Deformation [58.18290393082119]
ユーザがリアルタイムで大きな変形で暗黙の表現を直接変形または操作することは困難である。
我々は,インタラクティブな変形を可能にする新しいGSベースの手法を開発した。
提案手法は,高いフレームレートで良好なレンダリング結果を維持しつつ,高品質な再構成と効率的な変形を実現する。
論文 参考訳(メタデータ) (2024-02-07T12:36:54Z) - Pop-Out Motion: 3D-Aware Image Deformation via Learning the Shape
Laplacian [58.704089101826774]
形状分類と変形型に最小限の制約を課した3次元画像変形法を提案する。
点雲として表される3次元再構成の基底体積のラプラシアン形状を予測するために,教師付き学習に基づくアプローチを採用する。
実験では,2次元キャラクタと人間の衣料画像の変形実験を行った。
論文 参考訳(メタデータ) (2022-03-29T04:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。