論文の概要: GaussianMorphing: Mesh-Guided 3D Gaussians for Semantic-Aware Object Morphing
- arxiv url: http://arxiv.org/abs/2510.02034v1
- Date: Thu, 02 Oct 2025 14:07:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:21.15486
- Title: GaussianMorphing: Mesh-Guided 3D Gaussians for Semantic-Aware Object Morphing
- Title(参考訳): GaussianMorphing:セマンティック・アウェアなオブジェクトモフィングのためのメッシュガイド型3Dガウスアン
- Authors: Mengtian Li, Yunshu Bai, Yimin Chu, Yijun Shen, Zhongmei Li, Weifeng Ge, Zhifeng Xie, Chaofeng Chen,
- Abstract要約: マルチビュー画像から意味認識型3次元形状とテクスチャ形成のための新しいフレームワークを提案する。
私たちのフレームワークの中核は、3DGaussianをメッシュパッチの再構築にアンカーする統一的な変形戦略です。
提案したTexMorphベンチマークでは,GaussianMorphingは従来の2D/3D法よりも大幅に優れていた。
- 参考スコア(独自算出の注目度): 31.47036497656664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce GaussianMorphing, a novel framework for semantic-aware 3D shape and texture morphing from multi-view images. Previous approaches usually rely on point clouds or require pre-defined homeomorphic mappings for untextured data. Our method overcomes these limitations by leveraging mesh-guided 3D Gaussian Splatting (3DGS) for high-fidelity geometry and appearance modeling. The core of our framework is a unified deformation strategy that anchors 3DGaussians to reconstructed mesh patches, ensuring geometrically consistent transformations while preserving texture fidelity through topology-aware constraints. In parallel, our framework establishes unsupervised semantic correspondence by using the mesh topology as a geometric prior and maintains structural integrity via physically plausible point trajectories. This integrated approach preserves both local detail and global semantic coherence throughout the morphing process with out requiring labeled data. On our proposed TexMorph benchmark, GaussianMorphing substantially outperforms prior 2D/3D methods, reducing color consistency error ($\Delta E$) by 22.2% and EI by 26.2%. Project page: https://baiyunshu.github.io/GAUSSIANMORPHING.github.io/
- Abstract(参考訳): マルチビュー画像から意味認識型3次元形状とテクスチャモーフィングのための新しいフレームワークであるGaussianMorphingを紹介する。
従来のアプローチは、通常、ポイントクラウドに依存するか、文脈のないデータに対して事前に定義された同型マッピングを必要とする。
メッシュ誘導型3次元ガウススプラッティング(3DGS)を高忠実度幾何および外観モデリングに活用することにより,これらの制約を克服する。
我々のフレームワークの中核は、3DGaussianをメッシュパッチの再構成に固定し、トポロジに配慮した制約によるテクスチャの忠実さを維持しながら、幾何的に一貫した変換を保証する統一的な変形戦略である。
並列に,メッシュトポロジを幾何学的先行として利用して教師なし意味対応を確立し,物理的に可算な点軌道による構造的整合性を維持する。
この統合されたアプローチは、ラベリングされたデータを必要とするモーフィングプロセスを通して、局所的な詳細とグローバルなセマンティックコヒーレンスの両方を保存する。
提案したTexMorphベンチマークでは、GaussianMorphingは従来の2D/3D法よりも大幅に優れており、色の整合性エラー(\Delta E$)を22.2%、EIを26.2%削減した。
プロジェクトページ:https://baiyunshu.github.io/GAUSSIANMORPHING.github.io/
関連論文リスト
- GraphGSOcc: Semantic-Geometric Graph Transformer with Dynamic-Static Decoupling for 3D Gaussian Splatting-based Occupancy Prediction [2.3239379129613535]
GraphGSOccは、意味グラフと幾何学グラフを組み合わせ、動的静的オブジェクトを分離する新しいフレームワークである。
SurroundOcc-nuScenes、Occ3D-nuScenes、OpenOcc、KITTIの占有ベンチマークで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-06-13T06:09:57Z) - TSGaussian: Semantic and Depth-Guided Target-Specific Gaussian Splatting from Sparse Views [18.050257821756148]
TSGaussianは、新しいビュー合成タスクにおける幾何学的劣化を避けるために、意味的制約と深さ事前の制約を組み合わせる新しいフレームワークである。
提案手法は,バックグラウンドアロケーションを最小化しながら,指定された目標に対する計算資源の優先順位付けを行う。
大規模な実験により、TSGaussianは3つの標準データセット上で最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-12-13T11:26:38Z) - DreamMesh4D: Video-to-4D Generation with Sparse-Controlled Gaussian-Mesh Hybrid Representation [10.250715657201363]
本稿では,メッシュ表現と幾何スキン技術を組み合わせた新しいフレームワークDreamMesh4Dを紹介し,モノクロビデオから高品質な4Dオブジェクトを生成する。
我々の手法は現代のグラフィックパイプラインと互換性があり、3Dゲームや映画産業におけるその可能性を示している。
論文 参考訳(メタデータ) (2024-10-09T10:41:08Z) - Effective Rank Analysis and Regularization for Enhanced 3D Gaussian Splatting [33.01987451251659]
3D Gaussian Splatting(3DGS)は、高品質な3D再構成によるリアルタイムレンダリングが可能な有望な技術として登場した。
その可能性にもかかわらず、3DGSは針状アーティファクト、準最適ジオメトリー、不正確な正常といった課題に遭遇する。
正規化として有効ランクを導入し、ガウスの構造を制約する。
論文 参考訳(メタデータ) (2024-06-17T15:51:59Z) - Hybrid Explicit Representation for Ultra-Realistic Head Avatars [55.829497543262214]
我々は,超現実的な頭部アバターを作成し,それをリアルタイムにレンダリングする新しい手法を提案する。
UVマップされた3Dメッシュは滑らかな表面のシャープでリッチなテクスチャを捉えるのに使われ、3Dガウス格子は複雑な幾何学構造を表現するために用いられる。
モデル化された結果が最先端のアプローチを上回る実験を行ないました。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z) - Mesh-based Gaussian Splatting for Real-time Large-scale Deformation [58.18290393082119]
ユーザがリアルタイムで大きな変形で暗黙の表現を直接変形または操作することは困難である。
我々は,インタラクティブな変形を可能にする新しいGSベースの手法を開発した。
提案手法は,高いフレームレートで良好なレンダリング結果を維持しつつ,高品質な再構成と効率的な変形を実現する。
論文 参考訳(メタデータ) (2024-02-07T12:36:54Z) - SplatMesh: Interactive 3D Segmentation and Editing Using Mesh-Based Gaussian Splatting [86.50200613220674]
3Dベースのインタラクティブ編集における重要な課題は、与えられたメモリ制約の下で様々な修正と高品質なビュー合成のバランスをとる効率的な表現がないことである。
SplatMeshは,3次元ガウススプラッティングと事前計算メッシュを統合した,対話型3Dセグメンテーション・編集アルゴリズムである。
単純化されたメッシュのセグメンテーションと編集により、ガウススプレートの編集も効果的に行えます。
論文 参考訳(メタデータ) (2023-12-26T02:50:42Z) - Primal-Dual Mesh Convolutional Neural Networks [62.165239866312334]
本稿では,グラフ・ニューラル・ネットワークの文献からトライアングル・メッシュへ引き起こされた原始双対のフレームワークを提案する。
提案手法は,3次元メッシュのエッジと顔の両方を入力として特徴付け,動的に集約する。
メッシュ単純化の文献から得られたツールを用いて、我々のアプローチに関する理論的知見を提供する。
論文 参考訳(メタデータ) (2020-10-23T14:49:02Z) - Deep Geometric Texture Synthesis [83.9404865744028]
幾何学的テクスチャを合成するための新しい枠組みを提案する。
単一の参照3Dモデルの局所的な近傍からテクスチャ統計を学習する。
我々のネットワークはメッシュ頂点を任意の方向に変位させ、幾何学的テクスチャの合成を可能にする。
論文 参考訳(メタデータ) (2020-06-30T19:36:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。