論文の概要: LMSeg: A deep graph message-passing network for efficient and accurate semantic segmentation of large-scale 3D landscape meshes
- arxiv url: http://arxiv.org/abs/2407.04326v2
- Date: Wed, 10 Jul 2024 05:52:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-07-11 11:51:02.649306
- Title: LMSeg: A deep graph message-passing network for efficient and accurate semantic segmentation of large-scale 3D landscape meshes
- Title(参考訳): LMSeg:大規模3次元ランドスケープメッシュの効率的かつ正確なセマンティックセグメンテーションのためのディープグラフメッセージパッシングネットワーク
- Authors: Zexian Huang, Kourosh Khoshelham, Gunditj Mirring Traditional Owners Corporation, Martin Tomko,
- Abstract要約: 本稿では,大規模3次元ランドスケープメッシュ上でのセマンティックセマンティックセグメンテーションを効率的かつ正確に行うために,エンドツーエンドのディープグラフメッセージパッシングネットワークであるLMSegを提案する。
偏心グラフの階層的および局所的なプーリングは、効果的な幾何集約モジュールとともに、小さく不規則なメッシュオブジェクトの高速な推論と正確なセグメンテーションを可能にする。
- 参考スコア(独自算出の注目度): 3.482371041476053
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic segmentation of large-scale 3D landscape meshes is pivotal for various geospatial applications, including spatial analysis, automatic mapping and localization of target objects, and urban planning and development. This requires an efficient and accurate 3D perception system to understand and analyze real-world environments. However, traditional mesh segmentation methods face challenges in accurately segmenting small objects and maintaining computational efficiency due to the complexity and large size of 3D landscape mesh datasets. This paper presents an end-to-end deep graph message-passing network, LMSeg, designed to efficiently and accurately perform semantic segmentation on large-scale 3D landscape meshes. The proposed approach takes the barycentric dual graph of meshes as inputs and applies deep message-passing neural networks to hierarchically capture the geometric and spatial features from the barycentric graph structures and learn intricate semantic information from textured meshes. The hierarchical and local pooling of the barycentric graph, along with the effective geometry aggregation modules of LMSeg, enable fast inference and accurate segmentation of small-sized and irregular mesh objects in various complex landscapes. Extensive experiments on two benchmark datasets (natural and urban landscapes) demonstrate that LMSeg significantly outperforms existing learning-based segmentation methods in terms of object segmentation accuracy and computational efficiency. Furthermore, our method exhibits strong generalization capabilities across diverse landscapes and demonstrates robust resilience against varying mesh densities and landscape topologies.
- Abstract(参考訳): 大規模3次元ランドスケープメッシュのセマンティックセグメンテーションは,空間解析や自動マッピング,対象物体の局所化,都市計画・開発など,様々な地理空間的応用において重要である。
これは、現実世界の環境を理解し分析するために、効率的で正確な3D認識システムを必要とする。
しかし、従来のメッシュセグメンテーション手法は、3Dスケープメッシュデータセットの複雑さと大きすぎるため、小さなオブジェクトを正確にセグメンテーションし、計算効率を維持するという課題に直面している。
本稿では,大規模3次元ランドスケープメッシュ上でのセマンティックセマンティックセグメンテーションを効率的かつ正確に行うために,エンドツーエンドのディープグラフメッセージパッシングネットワークであるLMSegを提案する。
提案手法は、メッシュのバリセントリックな双対グラフを入力とし、ディープメッセージパスニューラルネットワークを用いて、バリセントリックなグラフ構造から幾何学的および空間的特徴を階層的に捉え、テクスチャ化されたメッシュから複雑な意味情報を学習する。
偏心グラフの階層的および局所的なプーリングは、LMSegの効果的な幾何集約モジュールとともに、様々な複雑な風景において、小さくて不規則なメッシュオブジェクトの高速な推論と正確なセグメンテーションを可能にする。
2つのベンチマークデータセット(自然景観と都市景観)の大規模な実験により、LMSegは既存の学習ベースセグメンテーション手法よりも、オブジェクトセグメンテーションの精度と計算効率において著しく優れていることが示された。
さらに,本手法は多様な景観にまたがる強力な一般化能力を示し,メッシュ密度や景観トポロジに対する堅牢なレジリエンスを示す。
関連論文リスト
- SSR: Pushing the Limit of Spatial Intelligence with Structured Scene Reasoning [30.87517633729756]
SSRはStructured Scene Reasoning用に設計されたフレームワークである。
軽量アライメント機構によって2Dと3Dの表現をシームレスに統合する。
複数の空間インテリジェンスベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2026-02-28T02:05:35Z) - Scalable Adaptation of 3D Geometric Foundation Models via Weak Supervision from Internet Video [76.32954467706581]
本稿では,生のビデオストリームからGEometric foundationモデルのスケーラブル適応を行うフレームワークであるSAGEを提案する。
階層的なマイニングパイプラインを使用して、ビデオをトレーニングトラジェクトリやハイブリッド監視に変換します。
実験の結果、SAGEはゼロショットの一般化を著しく向上し、チェムファー距離を20-42%削減した。
論文 参考訳(メタデータ) (2026-02-08T09:53:21Z) - Geodiffussr: Generative Terrain Texturing with Elevation Fidelity [48.82552523546255]
テキスト誘導テクスチャマップを合成するフローマッチングパイプラインであるGeodiffussrを紹介する。
マルチスケールコンテンツアグリゲーション(MCA): DEM機能は、複数の解像度でUNetブロックに注入され、グローバルからローカライズされた高度の一貫性が強制される。
Geodiffussrを訓練し,評価するために,SRTM由来のDEMとSentinel-2画像と視覚接地型自然出現キャプションを組み合わせた三重項のグローバル分布,バイオメ-および気候成層コーパスを組み立てた。
論文 参考訳(メタデータ) (2025-11-28T09:52:44Z) - OpenUrban3D: Annotation-Free Open-Vocabulary Semantic Segmentation of Large-Scale Urban Point Clouds [23.982606719607702]
OpenUrban3Dは,大規模都市シーンを対象とした3次元オープン語彙セマンティックセマンティックセマンティック・フレームワークである。
提案手法は,マルチビュー,多粒度レンダリング,マスクレベルの視覚言語特徴抽出,サンプルバランスの取れた融合により,原点雲から直接ロバストな意味的特徴を生成する。
この設計により、任意のテキストクエリに対するゼロショットセグメンテーションが可能となり、意味的豊かさと幾何学的先行性の両方をキャプチャできる。
論文 参考訳(メタデータ) (2025-09-13T15:03:28Z) - Self-Attention Based Multi-Scale Graph Auto-Encoder Network of 3D Meshes [1.573038298640368]
3D Geometric Mesh Network(3DGeoMeshNet)は、異方性畳み込み層を用いて空間領域内でグローバルな特徴とローカルな特徴を直接学習する新しいGCNベースのフレームワークである。
我々のアーキテクチャはマルチスケールエンコーダ・デコーダ構造を特徴とし、大域的および局所的な経路は大規模な幾何学的構造と微細な局所的詳細の両方を捉えている。
論文 参考訳(メタデータ) (2025-07-07T07:36:03Z) - Move to Understand a 3D Scene: Bridging Visual Grounding and Exploration for Efficient and Versatile Embodied Navigation [54.04601077224252]
身近なシーン理解には、視覚空間情報の理解だけでなく、3D物理世界における次の探索場所の決定も必要である。
アンダーラインテキストbf3D視覚言語学習は、エンボディエージェントが環境を効果的に探索し理解することを可能にする。
モデルの汎用性は、カテゴリ、言語記述、参照イメージなど、多様な入力モダリティを使ったナビゲーションを可能にする。
論文 参考訳(メタデータ) (2025-07-05T14:15:52Z) - Textured Mesh Saliency: Bridging Geometry and Texture for Human Perception in 3D Graphics [50.23625950905638]
6自由度(6-DOF)VR環境下での革新的な視線追跡実験により構築したテクスチャメッシュ・サリエンシのための新しいデータセットを提案する。
本モデルでは,各三角形の面を個々の単位として扱い,各局所表面領域の重要性を反映した塩分濃度値を割り当てることで,テクスチャメッシュ表面の塩分濃度マップを推定する。
論文 参考訳(メタデータ) (2024-12-11T08:27:33Z) - Large Spatial Model: End-to-end Unposed Images to Semantic 3D [79.94479633598102]
大空間モデル(LSM)は、RGB画像を直接意味的放射場に処理する。
LSMは、単一のフィードフォワード操作における幾何学、外観、意味を同時に推定する。
新しい視点で言語と対話することで、多目的ラベルマップを生成することができる。
論文 参考訳(メタデータ) (2024-10-24T17:54:42Z) - MMScan: A Multi-Modal 3D Scene Dataset with Hierarchical Grounded Language Annotations [55.022519020409405]
本稿では,マルチモーダルな3Dシーンデータセットと階層型言語アノテーションを用いたベンチマーク,MMScanを構築した。
結果として得られたマルチモーダルな3Dデータセットは、109kオブジェクトと7.7kリージョン上の1.4Mメタアノテーション付きキャプションと、3Dビジュアルグラウンドと質問応答ベンチマークのための3.04M以上の多様なサンプルを含んでいる。
論文 参考訳(メタデータ) (2024-06-13T17:59:30Z) - ALSTER: A Local Spatio-Temporal Expert for Online 3D Semantic
Reconstruction [62.599588577671796]
本稿では,RGB-Dフレームのストリームから3次元セマンティックマップを段階的に再構成するオンライン3次元セマンティックセマンティックセマンティクス手法を提案する。
オフラインの手法とは異なり、ロボット工学や混合現実のようなリアルタイムな制約のあるシナリオに直接適用できます。
論文 参考訳(メタデータ) (2023-11-29T20:30:18Z) - Semi-Weakly Supervised Object Kinematic Motion Prediction [56.282759127180306]
3Dオブジェクトが与えられた場合、運動予測は移動部と対応する運動パラメータを識別することを目的としている。
階層的部分分割と移動部パラメータのマップを学習するグラフニューラルネットワークを提案する。
ネットワーク予測は、擬似ラベル付き移動情報を持つ大規模な3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2023-03-31T02:37:36Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - City-scale Incremental Neural Mapping with Three-layer Sampling and
Panoptic Representation [5.682979644056021]
我々は、環境レベルとインスタンスレベルのモデリングからなるパノプティクス表現を用いた都市規模連続型ニューラルマッピングシステムを構築した。
疎いLiDAR点雲のストリームが与えられると、3D座標を符号付き距離場(SDF)値にマッピングする動的生成モデルを維持する。
不完全な観測下でのインスタンスの高忠実度マッピングを実現するために、幾何学的詳細をより良くモデル化するために、カテゴリ固有の事前を導入している。
論文 参考訳(メタデータ) (2022-09-28T13:14:40Z) - Deep residential representations: Using unsupervised learning to unlock
elevation data for geo-demographic prediction [0.0]
LiDAR技術は、都市景観と農村景観の詳細な3次元標高マップを提供するために利用することができる。
現在まで、空中LiDAR画像は、主に環境と考古学の領域に限られている。
我々は、このデータの適合性は、独自のだけでなく、人口統計学的特徴と組み合わせたデータの源でもあると考え、埋め込みの現実的なユースケースを提供する。
論文 参考訳(メタデータ) (2021-12-02T17:10:52Z) - MDA-Net: Multi-Dimensional Attention-Based Neural Network for 3D Image
Segmentation [4.221871357181261]
マルチ次元アテンションネットワーク(MDA-Net)を提案し,スライスワイド,空間,チャネルワイドアテンションを効率よくU-Netネットワークに統合する。
MICCAI iSegおよびIBSRデータセット上のモデルを評価し、実験結果が既存の方法よりも一貫した改善を示した。
論文 参考訳(メタデータ) (2021-05-10T16:58:34Z) - PIG-Net: Inception based Deep Learning Architecture for 3D Point Cloud
Segmentation [0.9137554315375922]
そこで我々はPIG-Netと呼ばれるインセプションに基づくディープネットワークアーキテクチャを提案し,点雲の局所的および大域的幾何学的詳細を効果的に特徴付ける。
我々は2つの最先端データセット上でPIG-Netアーキテクチャの徹底的な実験的解析を行う。
論文 参考訳(メタデータ) (2021-01-28T13:27:55Z) - Towards Semantic Segmentation of Urban-Scale 3D Point Clouds: A Dataset,
Benchmarks and Challenges [52.624157840253204]
我々は、30億点近い注釈付きポイントを持つ都市規模の測光点クラウドデータセットを提示する。
私たちのデータセットは、イギリスの3つの都市からなり、都市の景観の約7.6km2をカバーしています。
我々は,データセット上での最先端アルゴリズムの性能を評価し,その結果を包括的に分析する。
論文 参考訳(メタデータ) (2020-09-07T14:47:07Z) - Weakly Supervised Semantic Segmentation in 3D Graph-Structured Point
Clouds of Wild Scenes [36.07733308424772]
3Dセグメンテーションラベルの欠如は、効率的な点雲セグメンテーションの主な障害の1つである。
本稿では,2D のみを監督する点群における大規模セマンティックシーンセグメンテーションのための,新しいディープグラフ畳み込みネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-26T23:02:23Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。