論文の概要: G2P: Gaussian-to-Point Attribute Alignment for Boundary-Aware 3D Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2601.03510v1
- Date: Wed, 07 Jan 2026 01:44:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 02:15:23.169278
- Title: G2P: Gaussian-to-Point Attribute Alignment for Boundary-Aware 3D Semantic Segmentation
- Title(参考訳): G2P:境界を意識した3次元セマンティックセグメンテーションのためのガウス対ポイント属性アライメント
- Authors: Hojun Song, Chae-yeong Song, Jeong-hun Hong, Chaewon Moon, Dong-hwi Kim, Gahyeon Kim, Soo Ye Kim, Yiyi Liao, Jaehyup Lee, Sang-hyo Park,
- Abstract要約: 本稿では,3次元ガウススプラッティングから点雲へ外観認識属性を移し,より識別的かつ外観に一貫性のあるセグメンテーションを行うガウス・ツー・ポイント(G2P)を提案する。
提案手法は,標準ベンチマーク上での優れた性能を実現し,幾何学的に難解なクラスにおいて,すべて2Dや言語を監督せずに大幅に改善されていることを示す。
- 参考スコア(独自算出の注目度): 22.750868489199686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation on point clouds is critical for 3D scene understanding. However, sparse and irregular point distributions provide limited appearance evidence, making geometry-only features insufficient to distinguish objects with similar shapes but distinct appearances (e.g., color, texture, material). We propose Gaussian-to-Point (G2P), which transfers appearance-aware attributes from 3D Gaussian Splatting to point clouds for more discriminative and appearance-consistent segmentation. Our G2P address the misalignment between optimized Gaussians and original point geometry by establishing point-wise correspondences. By leveraging Gaussian opacity attributes, we resolve the geometric ambiguity that limits existing models. Additionally, Gaussian scale attributes enable precise boundary localization in complex 3D scenes. Extensive experiments demonstrate that our approach achieves superior performance on standard benchmarks and shows significant improvements on geometrically challenging classes, all without any 2D or language supervision.
- Abstract(参考訳): 点雲のセマンティックセグメンテーションは3Dシーン理解に不可欠である。
しかし、粗い点と不規則な点の分布は、外観の証拠が限られており、幾何学のみの特徴は、類似した形状の物体と異なる外観(例えば、色、テクスチャ、材料)を区別するのに不十分である。
本稿では,3次元ガウススプラッティングから点雲へ外観認識属性を移し,より識別的かつ外観に一貫性のあるセグメンテーションを行うガウス・ツー・ポイント(G2P)を提案する。
我々のG2Pは、点対応を確立することで最適化されたガウスと原点幾何学の相違に対処する。
ガウスの不透明度属性を活用することにより、既存のモデルを制限する幾何学的曖昧さを解消する。
さらに、ガウススケールの属性は複雑な3Dシーンにおける正確な境界ローカライゼーションを可能にする。
大規模な実験により,本手法は標準ベンチマークよりも優れた性能を示し,幾何的に難解なクラスにおいて,全て2Dや言語を監督せずに大幅に改善されていることが示された。
関連論文リスト
- Joint Semantic and Rendering Enhancements in 3D Gaussian Modeling with Anisotropic Local Encoding [86.55824709875598]
本稿では,セマンティックとレンダリングの両方を相乗化する3次元セマンティックガウスモデリングのための統合拡張フレームワークを提案する。
従来の点雲形状符号化とは異なり、細粒度3次元形状を捉えるために異方性3次元ガウシアン・チェビシェフ記述子を導入する。
我々は、学習した形状パターンを継続的に更新するために、クロスシーンの知識伝達モジュールを使用し、より高速な収束と堅牢な表現を可能にします。
論文 参考訳(メタデータ) (2026-01-05T18:33:50Z) - GaussianMorphing: Mesh-Guided 3D Gaussians for Semantic-Aware Object Morphing [31.47036497656664]
マルチビュー画像から意味認識型3次元形状とテクスチャ形成のための新しいフレームワークを提案する。
私たちのフレームワークの中核は、3DGaussianをメッシュパッチの再構築にアンカーする統一的な変形戦略です。
提案したTexMorphベンチマークでは,GaussianMorphingは従来の2D/3D法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2025-10-02T14:07:55Z) - Trace3D: Consistent Segmentation Lifting via Gaussian Instance Tracing [27.24794829116753]
ガウススプラッティングにおける2次元視覚分割を3次元に引き上げることの課題に対処する。
既存の方法は、視界を横断する不整合な2Dマスクに悩まされ、うるさいセグメンテーション境界を生成する。
本稿では,標準ガウス表現を入力ビュー全体にわたってインスタンス重み行列で拡張するガウスインスタンス追跡(GIT)を紹介する。
論文 参考訳(メタデータ) (2025-08-05T08:54:17Z) - C-DOG: Multi-View Multi-instance Feature Association Using Connected δ-Overlap Graphs [4.576442835703357]
C-DOG(Connected delta-Overlap Graph)は,ロバストな幾何学的特徴結合のためのアルゴリズムである。
C-DOGグラフでは、異なるビューから2D特徴点を表す2つのノードが、同じ3D点に対応する場合、エッジで接続される。
合成ベンチマークの実験では、C-DOGは幾何学ベースのベースラインアルゴリズムよりも優れているだけでなく、要求条件下でも非常に堅牢であることが示された。
論文 参考訳(メタデータ) (2025-07-18T17:23:45Z) - GraphGSOcc: Semantic-Geometric Graph Transformer with Dynamic-Static Decoupling for 3D Gaussian Splatting-based Occupancy Prediction [2.3239379129613535]
GraphGSOccは、意味グラフと幾何学グラフを組み合わせ、動的静的オブジェクトを分離する新しいフレームワークである。
SurroundOcc-nuScenes、Occ3D-nuScenes、OpenOcc、KITTIの占有ベンチマークで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-06-13T06:09:57Z) - COB-GS: Clear Object Boundaries in 3DGS Segmentation Based on Boundary-Adaptive Gaussian Splitting [67.03992455145325]
3D Gaussian Splatting(3DGS)に基づく3Dセグメンテーションは、オブジェクトの境界を正確に記述するのに苦労する。
セグメンテーション精度の向上を目的とした3DGS(COB-GS)のためのクリアオブジェクト境界を導入する。
意味指導には境界適応型ガウス分割法を導入する。
視覚的最適化のために、3DGSシーンの劣化したテクスチャを補正する。
論文 参考訳(メタデータ) (2025-03-25T08:31:43Z) - SAGD: Boundary-Enhanced Segment Anything in 3D Gaussian via Gaussian Decomposition [66.56357905500512]
3Dガウススプラッティングは、新しいビュー合成のための代替の3D表現として登場した。
SAGDは3D-GSのための概念的にシンプルで効果的な境界拡張パイプラインである。
提案手法は粗い境界問題なく高品質な3Dセグメンテーションを実現し,他のシーン編集作業にも容易に適用できる。
論文 参考訳(メタデータ) (2024-01-31T14:19:03Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - Boundary-Aware Geometric Encoding for Semantic Segmentation of Point
Clouds [45.270215729464056]
境界情報は2Dイメージセグメンテーションにおいて重要な役割を果たすが、通常は3Dポイントクラウドセグメンテーションでは無視される。
境界点を予測するための境界予測モジュール(BPM)を提案する。
予測された境界に基づいて、境界認識ジオメトリック。
GEMは、幾何学的情報をエンコードし、近隣の差別を伴う特徴を集約するように設計されている。
論文 参考訳(メタデータ) (2021-01-07T05:38:19Z) - Learning Geometry-Disentangled Representation for Complementary
Understanding of 3D Object Point Cloud [50.56461318879761]
3次元画像処理のためのGDANet(Geometry-Disentangled Attention Network)を提案する。
GDANetは、点雲を3Dオブジェクトの輪郭と平らな部分に切り離し、それぞれ鋭い変化成分と穏やかな変化成分で表される。
3Dオブジェクトの分類とセグメンテーションベンチマークの実験は、GDANetがより少ないパラメータで最先端の処理を実現していることを示している。
論文 参考訳(メタデータ) (2020-12-20T13:35:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。