論文の概要: Graph-Guided Dual-Level Augmentation for 3D Scene Segmentation
- arxiv url: http://arxiv.org/abs/2507.22668v1
- Date: Wed, 30 Jul 2025 13:25:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.225342
- Title: Graph-Guided Dual-Level Augmentation for 3D Scene Segmentation
- Title(参考訳): 3次元シーンセグメンテーションのためのグラフガイド付きデュアルレベル拡張
- Authors: Hongbin Lin, Yifan Jiang, Juangui Xu, Jesse Jiaxi Xu, Yi Lu, Zhengyu Hu, Ying-Cong Chen, Hao Wang,
- Abstract要約: 3Dポイントクラウドセグメンテーションは、シーン内の個々のポイントにセマンティックラベルを割り当てることを目的としている。
既存の手法では、大規模なアノテーションの負担を軽減するためにデータ拡張を採用するのが一般的である。
本稿では,現実的な3次元シーン合成のための2レベル制約付きグラフ誘導型データ拡張フレームワークを提案する。
- 参考スコア(独自算出の注目度): 21.553363236403822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D point cloud segmentation aims to assign semantic labels to individual points in a scene for fine-grained spatial understanding. Existing methods typically adopt data augmentation to alleviate the burden of large-scale annotation. However, most augmentation strategies only focus on local transformations or semantic recomposition, lacking the consideration of global structural dependencies within scenes. To address this limitation, we propose a graph-guided data augmentation framework with dual-level constraints for realistic 3D scene synthesis. Our method learns object relationship statistics from real-world data to construct guiding graphs for scene generation. Local-level constraints enforce geometric plausibility and semantic consistency between objects, while global-level constraints maintain the topological structure of the scene by aligning the generated layout with the guiding graph. Extensive experiments on indoor and outdoor datasets demonstrate that our framework generates diverse and high-quality augmented scenes, leading to consistent improvements in point cloud segmentation performance across various models.
- Abstract(参考訳): 3Dポイントクラウドセグメンテーションは、シーン内の個々のポイントにセマンティックラベルを割り当てることを目的としている。
既存の手法では、大規模なアノテーションの負担を軽減するためにデータ拡張を採用するのが一般的である。
しかし、ほとんどの拡張戦略は、シーン内のグローバルな構造的依存関係を考慮していないため、局所的な変換や意味的再構成にのみ焦点をあてている。
この制限に対処するため,現実的な3次元シーン合成のための2レベル制約付きグラフ誘導型データ拡張フレームワークを提案する。
実世界のデータからオブジェクト関係統計を学習し,シーン生成のためのガイドグラフを構築する。
局所的な制約は、オブジェクト間の幾何学的妥当性と意味的一貫性を強制する一方、グローバルレベルの制約は、生成されたレイアウトを誘導グラフと整列させることで、シーンの位相構造を維持する。
屋内および屋外のデータセットに対する大規模な実験により、我々のフレームワークは多様で高品質な拡張シーンを生成し、様々なモデルでポイントクラウドセグメンテーション性能が一貫した改善をもたらすことを示した。
関連論文リスト
- CommonScenes: Generating Commonsense 3D Indoor Scenes with Scene Graph
Diffusion [83.30168660888913]
シーングラフを対応する制御可能な3Dシーンに変換する完全生成モデルであるCommonScenesを提案する。
パイプラインは2つのブランチで構成されており、1つは変分オートエンコーダでシーン全体のレイアウトを予測し、もう1つは互換性のある形状を生成する。
生成されたシーンは、入力シーングラフを編集し、拡散モデルのノイズをサンプリングすることで操作することができる。
論文 参考訳(メタデータ) (2023-05-25T17:39:13Z) - Dual Adaptive Transformations for Weakly Supervised Point Cloud
Segmentation [78.6612285236938]
弱制御点雲分割のための新しいDATモデル(textbfDual textbfAdaptive textbfTransformations)を提案する。
我々は,大規模S3DISデータセットとScanNet-V2データセットの2つの人気バックボーンを用いたDATモデルの評価を行った。
論文 参考訳(メタデータ) (2022-07-19T05:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。