論文の概要: SMAC-Seg: LiDAR Panoptic Segmentation via Sparse Multi-directional
Attention Clustering
- arxiv url: http://arxiv.org/abs/2108.13588v1
- Date: Tue, 31 Aug 2021 02:25:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-02 02:57:56.668139
- Title: SMAC-Seg: LiDAR Panoptic Segmentation via Sparse Multi-directional
Attention Clustering
- Title(参考訳): SMAC-Seg: スパース多方向アテンションクラスタリングによるLiDARパノプティブセグメンテーション
- Authors: Enxu Li, Ryan Razani, Yixuan Xu and Liu Bingbing
- Abstract要約: 学習可能なスパースな多方向アテンションクラスタリングを複数スケールのフォアグラウンドインスタンスに提示する。
SMAC-Segはリアルタイムクラスタリングベースのアプローチであり、インスタンスをセグメント化する複雑な提案ネットワークを取り除く。
実験の結果,SMAC-Segはリアルタイムにデプロイ可能なネットワークにおいて,最先端の性能を実現していることがわかった。
- 参考スコア(独自算出の注目度): 1.1470070927586016
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Panoptic segmentation aims to address semantic and instance segmentation
simultaneously in a unified framework. However, an efficient solution of
panoptic segmentation in applications like autonomous driving is still an open
research problem. In this work, we propose a novel LiDAR-based panoptic system,
called SMAC-Seg. We present a learnable sparse multi-directional attention
clustering to segment multi-scale foreground instances. SMAC-Seg is a real-time
clustering-based approach, which removes the complex proposal network to
segment instances. Most existing clustering-based methods use the difference of
the predicted and ground truth center offset as the only loss to supervise the
instance centroid regression. However, this loss function only considers the
centroid of the current object, but its relative position with respect to the
neighbouring objects is not considered when learning to cluster. Thus, we
propose to use a novel centroid-aware repel loss as an additional term to
effectively supervise the network to differentiate each object cluster with its
neighbours. Our experimental results show that SMAC-Seg achieves
state-of-the-art performance among all real-time deployable networks on both
large-scale public SemanticKITTI and nuScenes panoptic segmentation datasets.
- Abstract(参考訳): panoptic segmentationは、セマンティクスとインスタンスセグメンテーションを同時に統一フレームワークで扱うことを目的としている。
しかし、自動運転のようなアプリケーションにおけるパノプティカルセグメンテーションの効率的なソリューションは、まだオープンな研究課題である。
本研究では,SMAC-Segと呼ばれる新しいLiDAR系パノプティクスシステムを提案する。
学習可能なスパースな多方向アテンションクラスタリングを複数スケールのフォアグラウンドインスタンスに提示する。
SMAC-Segはリアルタイムクラスタリングベースのアプローチであり、インスタンスをセグメント化する複雑な提案ネットワークを取り除く。
既存のクラスタリングベースのほとんどの方法は、予測された真理中心と基底真理中心のオフセットの違いを、インスタンスの遠心回帰を監視する唯一の損失として使用する。
しかし、この損失関数は、現在のオブジェクトのセンタロイドのみを考慮するが、その隣接オブジェクトに対する相対位置は、クラスタへの学習時に考慮されない。
そこで本研究では,ネットワークを効果的に監視し,各対象クラスタを隣接ノードと区別するために,新たなセンタロイド・アウェア・レペルロスを付加項として用いることを提案する。
実験の結果,smac-segは,大規模semantickittiとnuscenes panopticセグメンテーションデータセットの両方において,リアルタイムデプロイ可能なネットワークにおいて最先端のパフォーマンスを実現することがわかった。
関連論文リスト
- OMH: Structured Sparsity via Optimally Matched Hierarchy for Unsupervised Semantic Segmentation [69.37484603556307]
Un Semantic segmenting (USS)は、事前に定義されたラベルに頼ることなく、イメージをセグメント化する。
上記の問題を同時に解決するために,OMH (Optimally Matched Hierarchy) という新しいアプローチを導入する。
我々のOMHは既存のUSS法と比較して教師なしセグメンテーション性能がよい。
論文 参考訳(メタデータ) (2024-03-11T09:46:41Z) - Center Focusing Network for Real-Time LiDAR Panoptic Segmentation [58.1194137706868]
高精度かつリアルタイムなLiDARパノプティブセグメンテーションを実現するために、CFNet(Central Focus Network)を導入した。
CFFEは、元のLiDARポイントと仮想インスタンスセンターの関係を明確に理解するために提案されている。
我々のCFNetは、すべての既存のメソッドを大きなマージンで上回り、最も効率的なメソッドよりも1.6倍高速です。
論文 参考訳(メタデータ) (2023-11-16T01:52:11Z) - PANet: LiDAR Panoptic Segmentation with Sparse Instance Proposal and
Aggregation [15.664835767712775]
この作業では、オフセットブランチへの依存性を排除するため、PANetという新しいLPSフレームワークを提案する。
PaNet はセマンティック KITII バリデーションと nuScenes バリデーションのパン光学セグメンテーションタスクに関する論文の中で,最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-06-27T10:02:28Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - DeepCut: Unsupervised Segmentation using Graph Neural Networks
Clustering [6.447863458841379]
本研究では,従来のクラスタリング手法を置き換える軽量グラフニューラルネットワーク(GNN)を提案する。
既存の手法とは異なり、GNNはローカル画像特徴と生特徴とのペアワイズ親和性の両方を入力として取ります。
画像セグメンテーションGNNを訓練するための自己教師付き損失関数として,古典的クラスタリングの目的を定式化する方法を実証する。
論文 参考訳(メタデータ) (2022-12-12T12:31:46Z) - Beyond the Prototype: Divide-and-conquer Proxies for Few-shot
Segmentation [63.910211095033596]
少ないショットのセグメンテーションは、少数の濃密なラベル付けされたサンプルのみを与えられた、目に見えないクラスオブジェクトをセグメンテーションすることを目的としている。
分割・分散の精神において, 単純かつ多目的な枠組みを提案する。
提案手法は、DCP(disvision-and-conquer proxies)と呼ばれるもので、適切な信頼性のある情報の開発を可能にする。
論文 参考訳(メタデータ) (2022-04-21T06:21:14Z) - CPSeg: Cluster-free Panoptic Segmentation of 3D LiDAR Point Clouds [2.891413712995641]
CPSegと呼ばれるLiDAR点雲のための新しいリアルタイム・エンド・エンド・エンド・パノプティクス・セグメンテーション・ネットワークを提案する。
CPSegは、共有エンコーダ、デュアルデコーダ、タスク認識アテンションモジュール(TAM)、クラスタフリーインスタンスセグメンテーションヘッドを備える。
論文 参考訳(メタデータ) (2021-11-02T16:44:06Z) - Semantic Attention and Scale Complementary Network for Instance
Segmentation in Remote Sensing Images [54.08240004593062]
本稿では,セマンティックアテンション(SEA)モジュールとスケール補完マスクブランチ(SCMB)で構成される,エンドツーエンドのマルチカテゴリインスタンスセグメンテーションモデルを提案する。
SEAモジュールは、機能マップ上の興味あるインスタンスのアクティベーションを強化するために、追加の監督を備えた、単純な完全な畳み込みセマンティックセマンティックセマンティクスブランチを含んでいる。
SCMBは、元のシングルマスクブランチをトリデントマスクブランチに拡張し、異なるスケールで補完マスクの監視を導入する。
論文 参考訳(メタデータ) (2021-07-25T08:53:59Z) - Instance segmentation with the number of clusters incorporated in
embedding learning [15.054120734581826]
本稿では,クラスタリング情報を組込み学習フレームワークFCRNetに組み込むことを提案する。
FCRNetは、クラスタリンググループの数を埋め込み空間に組み込むことで、ポストプロセスの複雑さを和らげる。
FCRNetの優れた性能を検証し、核データセットBBBC006の他の手法と比較した。
論文 参考訳(メタデータ) (2021-03-27T10:03:19Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Towards Bounding-Box Free Panoptic Segmentation [16.4548904544277]
パン光学セグメンテーションのための新しいBunding-Box Free Network (BBFNet) を提案する。
BBFNetは、粗い流域レベルを予測し、境界が適切に定義された大きなインスタンス候補を検出するためにそれらを使用する。
境界が信頼性の低い小さなインスタンスでは、BBFNetはHoughの投票によってインスタンス中心を予測し、続いて平均シフトによって小さなオブジェクトを確実に検出する。
論文 参考訳(メタデータ) (2020-02-18T16:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。