論文の概要: ASAP-Net: Attention and Structure Aware Point Cloud Sequence
Segmentation
- arxiv url: http://arxiv.org/abs/2008.05149v1
- Date: Wed, 12 Aug 2020 07:37:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 05:22:31.814989
- Title: ASAP-Net: Attention and Structure Aware Point Cloud Sequence
Segmentation
- Title(参考訳): ASAP-Net: 注意と構造を考慮したクラウドシーケンスセグメンテーション
- Authors: Hanwen Cao, Yongyi Lu, Cewu Lu, Bo Pang, Gongshen Liu, Alan Yuille
- Abstract要約: 我々は、ASAPと呼ばれるフレキシブルモジュールにより、ポイントテンポラルクラウド機能をさらに改善する。
我々のASAPモジュールは、フレーム間の比較的情報性の高い局所的特徴を連続的に融合させるために、注意深い時間的埋め込み層を含んでいる。
本稿では、ポイントクラウドシーケンシャルセグメンテーションのための異なる計算バックボーンネットワークを持つASAPモジュールの一般化能力を示す。
- 参考スコア(独自算出の注目度): 49.15948235059343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works of point clouds show that mulit-frame spatio-temporal modeling
outperforms single-frame versions by utilizing cross-frame information. In this
paper, we further improve spatio-temporal point cloud feature learning with a
flexible module called ASAP considering both attention and structure
information across frames, which we find as two important factors for
successful segmentation in dynamic point clouds. Firstly, our ASAP module
contains a novel attentive temporal embedding layer to fuse the relatively
informative local features across frames in a recurrent fashion. Secondly, an
efficient spatio-temporal correlation method is proposed to exploit more local
structure for embedding, meanwhile enforcing temporal consistency and reducing
computation complexity. Finally, we show the generalization ability of the
proposed ASAP module with different backbone networks for point cloud sequence
segmentation. Our ASAP-Net (backbone plus ASAP module) outperforms baselines
and previous methods on both Synthia and SemanticKITTI datasets (+3.4 to +15.2
mIoU points with different backbones). Code is availabe at
https://github.com/intrepidChw/ASAP-Net
- Abstract(参考訳): 点雲の最近の研究は、多フレーム時空間モデリングがクロスフレーム情報を利用することでシングルフレームバージョンより優れていることを示している。
本稿では,動的点雲におけるセグメンテーションを成功させる2つの重要な要因として,フレーム間の注意情報と構造情報の両方を考慮したASAPと呼ばれるフレキシブルモジュールを用いて,時空間雲の特徴学習をさらに改善する。
まず、我々のASAPモジュールは、フレーム間の比較的情報性の高い局所的特徴を反復的に融合させるために、新しい注意的時間的埋め込み層を含む。
第2に, 時間的一貫性と計算複雑性の低減を図りながら, より局所的な構造を利用した効率的な時空間相関法を提案する。
最後に、ポイントクラウドシーケンシャルセグメンテーションのための異なるバックボーンネットワークを持つASAPモジュールの一般化能力を示す。
我々のASAP-Net(バックボーンとASAPモジュール)は、ベースラインとSynthiaおよびSemanticKITTIデータセット(異なるバックボーンを持つ+3.4から+15.2 mIoUポイント)の以前のメソッドよりも優れています。
コードはhttps://github.com/intrepidchw/asap-netで利用可能
関連論文リスト
- FASTC: A Fast Attentional Framework for Semantic Traversability Classification Using Point Cloud [7.711666704468952]
点雲を用いたトラバーサビリティ評価の問題に対処する。
本稿では,垂直に配置された点雲から特徴を捉えるために PointNet を利用した柱状特徴抽出モジュールを提案する。
次に、LIDAR点雲の密度問題に適切に対応できる多フレーム情報を融合する新しい時間的アテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-06-24T12:01:55Z) - ColorMNet: A Memory-based Deep Spatial-Temporal Feature Propagation Network for Video Colorization [62.751303924391564]
映像のカラー化において,空間時間的特徴を効果的に探索する方法が重要である。
我々は,メモリベースの機能伝搬モジュールを開発し,遠方のフレームからの機能との信頼性の高い接続を確立する。
空間時間近傍の隣接するフレームから特徴を集約するローカルアテンションモジュールを開発した。
論文 参考訳(メタデータ) (2024-04-09T12:23:30Z) - ESGCN: Edge Squeeze Attention Graph Convolutional Network for Traffic
Flow Forecasting [15.475463516901938]
本稿では,複数の地域でのトラフィックフローを予測するネットワークエッジ・スキーズ・コンボリューション・ネットワーク(ESCN)を提案する。
ESGCNは、4つの現実世界のデータセットに対して大きなマージンで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-07-03T04:47:42Z) - Abstract Flow for Temporal Semantic Segmentation on the Permutohedral
Lattice [27.37701107719647]
バックボーンのLatticeNetを拡張して、時間的ポイントクラウドデータを処理します。
我々は,ネットワークがシーンの一部に類似した抽象的な特徴を持たせるための抽象フローという新しいモジュールを提案する。
我々は,実都市環境からのLiDARスキャンを含むSemantic KITTIデータセットの最先端結果を得た。
論文 参考訳(メタデータ) (2022-03-29T12:14:31Z) - PRA-Net: Point Relation-Aware Network for 3D Point Cloud Analysis [56.91758845045371]
我々はポイント関係認識ネットワーク(PRA-Net)という新しいフレームワークを提案する。
領域内構造学習(ISL)モジュールと領域間関係学習(IRL)モジュールで構成されている。
形状分類,キーポイント推定,部分セグメンテーションを含む複数の3次元ベンチマーク実験により,PRA-Netの有効性と性能が検証された。
論文 参考訳(メタデータ) (2021-12-09T13:24:43Z) - Multi-Scale Semantics-Guided Neural Networks for Efficient
Skeleton-Based Human Action Recognition [140.18376685167857]
スケルトンに基づく行動認識には,単純なマルチスケールセマンティクス誘導ニューラルネットワークが提案されている。
MS-SGNは、NTU60、NTU120、SYSUデータセットの最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-11-07T03:50:50Z) - DRINet: A Dual-Representation Iterative Learning Network for Point Cloud
Segmentation [45.768040873409824]
DRINetは二重表現学習の基本的なネットワーク構造として機能する。
我々のネットワークは、ポイントクラウド分類とセグメンテーションタスクの最先端の結果を達成する。
大規模屋外シナリオでは,提案手法はフレーム当たり62msのリアルタイム推論速度で最先端の手法より優れる。
論文 参考訳(メタデータ) (2021-08-09T13:23:54Z) - BiCnet-TKS: Learning Efficient Spatial-Temporal Representation for Video
Person Re-Identification [86.73532136686438]
映像人物再識別(reID)のための効率的な時空間表現法を提案する。
空間相補性モデリングのための双方向相補性ネットワーク(BiCnet)を提案する。
BiCnet-TKSは、約50%の計算量で最先端の性能を発揮する。
論文 参考訳(メタデータ) (2021-04-30T06:44:34Z) - FatNet: A Feature-attentive Network for 3D Point Cloud Processing [1.502579291513768]
本稿では,グローバルポイントベースの機能とエッジベースの機能を組み合わせた,新たな機能指向ニューラルネットワーク層であるfat layerを提案する。
当社のアーキテクチャは,ModelNet40データセットで示すように,ポイントクラウド分類のタスクにおける最先端の成果を達成する。
論文 参考訳(メタデータ) (2021-04-07T23:13:56Z) - F2Net: Learning to Focus on the Foreground for Unsupervised Video Object
Segmentation [61.74261802856947]
本研究では,フォアグラウンド・ネットワーク(F2Net)について,フォアグラウンド・オブジェクトのイントラ・フレームの詳細について考察する。
提案するネットワークは,Siamese Module,Center Guiding Outearance Diffusion Module,Dynamic Information Fusion Moduleの3つの主要部分から構成される。
DAVIS2016、Youtube-object、FBMSデータセットの実験から、提案したF2Netは最先端のパフォーマンスを実現し、大幅な改善を実現している。
論文 参考訳(メタデータ) (2020-12-04T11:30:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。