論文の概要: PointViG: A Lightweight GNN-based Model for Efficient Point Cloud Analysis
- arxiv url: http://arxiv.org/abs/2407.00921v2
- Date: Mon, 16 Sep 2024 15:28:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 01:36:14.521160
- Title: PointViG: A Lightweight GNN-based Model for Efficient Point Cloud Analysis
- Title(参考訳): PointViG: 効率的なポイントクラウド分析のための軽量GNNベースモデル
- Authors: Qiang Zheng, Yafei Qi, Chen Wang, Chao Zhang, Jian Sun,
- Abstract要約: 本研究では,点雲解析のための効率的なフレームワークであるb>Pointb>sion b>Gb>NN(PointViG)を紹介する。
PointViGには、ローカル機能を効率的に集約する軽量なグラフ畳み込みモジュールが組み込まれている。
実験により、PointViGは最先端のモデルに匹敵する性能を達成することが示された。
- 参考スコア(独自算出の注目度): 42.187844778761935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the domain of point cloud analysis, despite the significant capabilities of Graph Neural Networks (GNNs) in managing complex 3D datasets, existing approaches encounter challenges like high computational costs and scalability issues with extensive scenarios. These limitations restrict the practical deployment of GNNs, notably in resource-constrained environments. To address these issues, this study introduce <b>Point<\b> <b>Vi<\b>sion <b>G<\b>NN (PointViG), an efficient framework for point cloud analysis. PointViG incorporates a lightweight graph convolutional module to efficiently aggregate local features and mitigate over-smoothing. For large-scale point cloud scenes, we propose an adaptive dilated graph convolution technique that searches for sparse neighboring nodes within a dilated neighborhood based on semantic correlation, thereby expanding the receptive field and ensuring computational efficiency. Experiments demonstrate that PointViG achieves performance comparable to state-of-the-art models while balancing performance and complexity. On the ModelNet40 classification task, PointViG achieved 94.3% accuracy with 1.5M parameters. For the S3DIS segmentation task, it achieved an mIoU of 71.7% with 5.3M parameters. These results underscore the potential and efficiency of PointViG in point cloud analysis.
- Abstract(参考訳): ポイントクラウド分析の分野では、複雑な3Dデータセットの管理におけるグラフニューラルネットワーク(GNN)の重大な機能にもかかわらず、既存のアプローチでは、高い計算コストや広範なシナリオでのスケーラビリティの問題といった課題に直面している。
これらの制限は、特にリソース制約のある環境でのGNNの実践的な展開を制限する。
これらの課題に対処するために, ポイントクラウド解析のための効率的なフレームワークである<b>Point<\b><b>Vi<\b>sion <b>G<\b>NN(PointViG)を紹介する。
PointViGには軽量なグラフ畳み込みモジュールが組み込まれている。
本研究では,大規模クラウドシーンに対して,セマンティックな相関関係に基づいて隣接ノードを探索する適応的拡張グラフ畳み込み手法を提案し,受容場の拡大と計算効率の確保を図る。
実験によると、PointViGはパフォーマンスと複雑さのバランスをとりながら、最先端のモデルに匹敵するパフォーマンスを達成する。
ModelNet40の分類タスクでは、PointViGは1.5Mパラメータで94.3%の精度を達成した。
S3DISセグメンテーションタスクでは、5.3Mパラメータで71.7%のmIoUを達成した。
これらの結果は点雲解析におけるPointViGの可能性と効率を裏付けるものである。
関連論文リスト
- Point Cloud Denoising With Fine-Granularity Dynamic Graph Convolutional Networks [58.050130177241186]
ノイズの摂動は、しばしば3次元の点雲を破損させ、表面の再構成、レンダリング、さらなる処理といった下流のタスクを妨げる。
本稿では,GDGCNと呼ばれる粒度動的グラフ畳み込みネットワークについて紹介する。
論文 参考訳(メタデータ) (2024-11-21T14:19:32Z) - Parameter-Efficient Fine-Tuning in Spectral Domain for Point Cloud Learning [49.91297276176978]
私たちは小説を提案します。
ポイントGST (Point GST) と呼ばれる点雲の効率的な微細調整法。
ポイントGSTは事前トレーニングされたモデルを凍結し、スペクトル領域のパラメータを微調整するためのトレーニング可能なポイントクラウドスペクトルアダプタ(PCSA)を導入する。
挑戦的なポイントクラウドデータセットに関する大規模な実験は、ポイントGSTが完全に微調整されたデータセットを上回るだけでなく、トレーニング可能なパラメータを大幅に削減することを示した。
論文 参考訳(メタデータ) (2024-10-10T17:00:04Z) - PointGL: A Simple Global-Local Framework for Efficient Point Cloud
Analysis [19.163081544030547]
我々は、効率的なポイントクラウド分析を容易にするために、PointGLとして知られる、新しく、複雑で、かつ強力なアーキテクチャを導入します。
一点埋め込みとパラメータフリーグラフプーリングの融合は、PointGLが定義するモデル複雑性の最小化と効率の向上に寄与する。
私たちのPointGLは、ScanObjectNNデータセットの最先端の精度を達成しつつ、5倍以上高速で、FLOPの約4%と、最近のPointMLPモデルと比較して30%のパラメータしか利用できないランタイムを示しています。
論文 参考訳(メタデータ) (2024-01-22T02:05:33Z) - PosDiffNet: Positional Neural Diffusion for Point Cloud Registration in
a Large Field of View with Perturbations [27.45001809414096]
PosDiffNetは、3Dコンピュータビジョンにおけるポイントクラウド登録のモデルである。
ベルトラミフローに基づくグラフニューラル偏微分方程式(PDE)を用いて高次元特徴を求める。
我々は、点雲間のアライメントを容易にするために、高特徴類似度スコアから導かれる多レベル対応を用いる。
我々はPosDiffNetを複数の3Dポイントクラウドデータセット上で評価し、摂動を伴う広い視野でのポイントクラウド登録において、最先端(SOTA)性能を達成することを検証した。
論文 参考訳(メタデータ) (2024-01-06T08:58:15Z) - PointeNet: A Lightweight Framework for Effective and Efficient Point
Cloud Analysis [28.54939134635978]
PointeNetは、ポイントクラウド分析に特化したネットワークである。
本手法は,分類/分割ヘッドとシームレスに統合したり,市販の3Dオブジェクト検出ネットワークに埋め込んだりすることで,柔軟性を示す。
ModelNet40、ScanObjectNN、ShapeNet KITTI、およびシーンレベルのデータセットKITTIを含むオブジェクトレベルのデータセットの実験は、ポイントクラウド分析における最先端メソッドよりもPointeNetの方が優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-12-20T03:34:48Z) - MLGCN: An Ultra Efficient Graph Convolution Neural Model For 3D Point
Cloud Analysis [4.947552172739438]
グラフニューラルネットワーク(GNN)ブロックを用いて,特定の局所レベルの3次元点雲から特徴を抽出する,MLGCN(Multi-level Graph Convolution Neural)モデルを提案する。
提案手法は,浮動小数点演算(FLOP)の最大1000倍の削減と,ストレージ要求の大幅な削減を図りながら,最先端モデルに匹敵する結果をもたらす。
論文 参考訳(メタデータ) (2023-03-31T00:15:22Z) - HPGNN: Using Hierarchical Graph Neural Networks for Outdoor Point Cloud
Processing [0.7649716717097428]
自律ナビゲーションのためのポイントクラウド処理の最近の改良により、我々は、処理に階層的なグラフニューラルネットワークを使うことに重点を置いている。
階層型グラフニューラルネットワーク(HPGNN)を提案する。
様々なレベルのグラフ粗さでノードの特徴を学習し、情報を抽出する。
これにより、既存のポイントレベルのグラフネットワークが達成に苦慮している詳細を保ちながら、大きなポイントクラウド上で学習することができる。
論文 参考訳(メタデータ) (2022-06-05T11:18:09Z) - Learning Semantic Segmentation of Large-Scale Point Clouds with Random
Sampling [52.464516118826765]
我々はRandLA-Netを紹介した。RandLA-Netは、大規模ポイントクラウドのポイントごとの意味を推論する、効率的で軽量なニューラルネットワークアーキテクチャである。
我々のアプローチの鍵は、より複雑な点選択アプローチではなく、ランダムな点サンプリングを使用することである。
我々のRandLA-Netは、既存のアプローチよりも最大200倍高速な1回のパスで100万ポイントを処理できます。
論文 参考訳(メタデータ) (2021-07-06T05:08:34Z) - Local Grid Rendering Networks for 3D Object Detection in Point Clouds [98.02655863113154]
CNNは強力だが、全点の雲を高密度の3Dグリッドに酸化した後、点データに直接畳み込みを適用するのは計算コストがかかる。
入力点のサブセットの小さな近傍を低解像度の3Dグリッドに独立してレンダリングする,新しい,原理化されたローカルグリッドレンダリング(LGR)演算を提案する。
ScanNetとSUN RGB-Dデータセットを用いた3次元オブジェクト検出のためのLGR-Netを検証する。
論文 参考訳(メタデータ) (2020-07-04T13:57:43Z) - GPS-Net: Graph Property Sensing Network for Scene Graph Generation [91.60326359082408]
シーングラフ生成(SGG)は、画像内のオブジェクトとそれらのペア関係を検出することを目的としている。
GPS-Netは、エッジ方向情報、ノード間の優先度の差、長期にわたる関係の分布という、SGGの3つの特性を網羅している。
GPS-Netは、VG、OI、VRDの3つの一般的なデータベース上での最先端のパフォーマンスを、さまざまな設定とメトリクスで大幅に向上させる。
論文 参考訳(メタデータ) (2020-03-29T07:22:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。