論文の概要: DAGLFNet:Deep Attention-Guided Global-Local Feature Fusion for Pseudo-Image Point Cloud Segmentation
- arxiv url: http://arxiv.org/abs/2510.10471v1
- Date: Sun, 12 Oct 2025 06:35:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.959345
- Title: DAGLFNet:Deep Attention-Guided Global-Local Feature Fusion for Pseudo-Image Point Cloud Segmentation
- Title(参考訳): DAGLFNet:Pseudo-Image Point Cloud Segmentationのためのディープアテンションガイド付きグローバルローカル機能融合
- Authors: Chuang Chen, Wenyi Ge,
- Abstract要約: 点群から識別的特徴を抽出する擬似画像ベース表現法であるDAGLFNetを提案する。
この手法は高性能とリアルタイムの能力のバランスを保ち、LiDARベースのリアルタイムアプリケーションに大きな可能性を示す。
- 参考スコア(独自算出の注目度): 6.418552842518015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Environmental perception systems play a critical role in high-precision mapping and autonomous navigation, with LiDAR serving as a core sensor that provides accurate 3D point cloud data. How to efficiently process unstructured point clouds while extracting structured semantic information remains a significant challenge, and in recent years, numerous pseudo-image-based representation methods have emerged to achieve a balance between efficiency and performance. However, they often overlook the structural and semantic details of point clouds, resulting in limited feature fusion and discriminability. In this work, we propose DAGLFNet, a pseudo-image-based semantic segmentation framework designed to extract discriminative features. First, the Global-Local Feature Fusion Encoding module is used to enhance the correlation among local features within a set and capture global contextual information. Second, the Multi-Branch Feature Extraction network is employed to capture more neighborhood information and enhance the discriminability of contour features. Finally, a Feature Fusion via Deep Feature-guided Attention mechanism is introduced to improve the precision of cross-channel feature fusion. Experimental evaluations show that DAGLFNet achieves 69.83\% and 78.65\% on the validation sets of SemanticKITTI and nuScenes, respectively. The method balances high performance with real-time capability, demonstrating great potential for LiDAR-based real-time applications.
- Abstract(参考訳): 環境認識システムは高精度マッピングや自律ナビゲーションにおいて重要な役割を果たし、LiDARは正確な3Dポイントクラウドデータを提供するコアセンサーとして機能する。
構造化された意味情報を抽出しながら、非構造化点雲を効率的に処理する方法は依然として大きな課題であり、近年では効率と性能のバランスをとるために、擬似画像に基づく表現法が数多く登場している。
しかし、それらはしばしば点雲の構造的・意味的な詳細を見落とし、特徴の融合と識別可能性に限界をもたらす。
本研究では,識別的特徴の抽出を目的とした擬似画像に基づくセマンティックセマンティックセグメンテーションフレームワークであるDAGLFNetを提案する。
まず,グローバル・ローカル・フィーチャー・フュージョン・エンコーディング・モジュールを用いて,集合内の局所的特徴間の相関性を高め,グローバル・コンテクスト情報を取得する。
第二に,マルチブランチ特徴抽出ネットワークは,より多くの近傍情報を捕捉し,輪郭特徴の識別性を高めるために使用される。
最後に、チャネル間機能融合の精度を向上させるために、Deep Feature-Guided AttentionメカニズムによるFeature Fusionを導入する。
DAGLFNet は SemanticKITTI と nuScenes の検証セットに対して 69.83\% と 78.65\% を達成した。
この手法は高性能とリアルタイムの能力のバランスを保ち、LiDARベースのリアルタイムアプリケーションに大きな可能性を示す。
関連論文リスト
- LASFNet: A Lightweight Attention-Guided Self-Modulation Feature Fusion Network for Multimodal Object Detection [4.2649265429416445]
本稿では,単一機能レベルの核融合ユニットを用いて高速な核融合検出を行う新しい核融合検出ベースラインを提案する。
このアプローチに基づいて,軽量な注意誘導型自己変調機能融合ネットワーク(LASFNet)を提案する。
提案手法は, パラメータ数と計算コストを最大90%, 85%削減し, 良好な効率・精度のトレードオフを実現する。
論文 参考訳(メタデータ) (2025-06-26T05:32:33Z) - Semantic-Spatial Feature Fusion with Dynamic Graph Refinement for Remote Sensing Image Captioning [11.015244501780078]
本稿では,動的グラフ精錬法(SFDR)を用いた意味空間的特徴融合を提案する。
提案手法は,生成した記述の質を著しく向上させる。
3つのベンチマークデータセットの実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2025-03-30T14:14:41Z) - Point Cloud Understanding via Attention-Driven Contrastive Learning [64.65145700121442]
トランスフォーマーベースのモデルは、自己認識機構を活用することにより、先進的なポイントクラウド理解を持つ。
PointACLは、これらの制限に対処するために設計された、注意駆動のコントラスト学習フレームワークである。
本手法では, 注意駆動型動的マスキング手法を用いて, モデルが非集中領域に集中するように誘導する。
論文 参考訳(メタデータ) (2024-11-22T05:41:00Z) - Localization, balance and affinity: a stronger multifaceted collaborative salient object detector in remote sensing images [24.06927394483275]
ORSIにおいて,LBA-MCNetと呼ばれる,より強力な多面協調型サリエント物体検出器を提案する。
このネットワークは、ターゲットの正確な位置決め、詳細な機能のバランス、画像レベルのグローバルコンテキスト情報のモデリングに重点を置いている。
論文 参考訳(メタデータ) (2024-10-31T14:50:48Z) - PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - Bidirectional Knowledge Reconfiguration for Lightweight Point Cloud
Analysis [74.00441177577295]
ポイントクラウド分析は計算システムのオーバーヘッドに直面し、モバイルやエッジデバイスでの利用を制限する。
本稿では,軽量点雲モデルのための特徴蒸留について検討する。
本研究では,教師から生徒への情報的文脈的知識を抽出するための双方向知識再構成を提案する。
論文 参考訳(メタデータ) (2023-10-08T11:32:50Z) - Centralized Feature Pyramid for Object Detection [53.501796194901964]
視覚的特徴ピラミッドは、広範囲のアプリケーションにおいて、有効性と効率の両方において、その優位性を示している。
本稿では,オブジェクト検出のためのOLO特徴ピラミッドを提案する。
論文 参考訳(メタデータ) (2022-10-05T08:32:54Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Semantic Segmentation for Real Point Cloud Scenes via Bilateral
Augmentation and Adaptive Fusion [38.05362492645094]
現実世界の複雑な環境を直感的に捉えることができますが、3Dデータの生の性質のため、機械認識にとって非常に困難です。
我々は、現実に収集された大規模クラウドデータに対して、重要な視覚的タスク、セマンティックセグメンテーションに集中する。
3つのベンチマークで最先端のネットワークと比較することにより,ネットワークの有効性を実証する。
論文 参考訳(メタデータ) (2021-03-12T04:13:20Z) - Global Context-Aware Progressive Aggregation Network for Salient Object
Detection [117.943116761278]
我々は,低レベルな外観特徴,高レベルな意味特徴,グローバルな文脈特徴を統合化するための新しいネットワークGCPANetを提案する。
提案手法は, 定量的かつ定性的に, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-02T04:26:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。