論文の概要: PUPS: Point Cloud Unified Panoptic Segmentation
- arxiv url: http://arxiv.org/abs/2302.06185v1
- Date: Mon, 13 Feb 2023 08:42:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 16:15:08.443563
- Title: PUPS: Point Cloud Unified Panoptic Segmentation
- Title(参考訳): PUPS: Point Cloud Unified Panoptic Segmentation
- Authors: Shihao Su, Jianyun Xu, Huanyu Wang, Zhenwei Miao, Xin Zhan, Dayang
Hao, Xi Li
- Abstract要約: 本稿では,シンプルだが効果的な点群統合パノプティックセグメンテーション(PUPS)フレームワークを提案する。
PUPSは、ポイントレベルの分類器のセットを使用して、エンド・ツー・エンドの方法でセマンティクスとインスタンス・グループを直接予測する。
PUPSはSemantic KITTI Panoptic segmentation Taskのリーダーボードで1位を獲得し、nuScenesの最先端の結果を得た。
- 参考スコア(独自算出の注目度): 13.668363631123649
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Point cloud panoptic segmentation is a challenging task that seeks a holistic
solution for both semantic and instance segmentation to predict groupings of
coherent points. Previous approaches treat semantic and instance segmentation
as surrogate tasks, and they either use clustering methods or bounding boxes to
gather instance groupings with costly computation and hand-crafted designs in
the instance segmentation task. In this paper, we propose a simple but
effective point cloud unified panoptic segmentation (PUPS) framework, which use
a set of point-level classifiers to directly predict semantic and instance
groupings in an end-to-end manner. To realize PUPS, we introduce bipartite
matching to our training pipeline so that our classifiers are able to
exclusively predict groupings of instances, getting rid of hand-crafted
designs, e.g. anchors and Non-Maximum Suppression (NMS). In order to achieve
better grouping results, we utilize a transformer decoder to iteratively refine
the point classifiers and develop a context-aware CutMix augmentation to
overcome the class imbalance problem. As a result, PUPS achieves 1st place on
the leader board of SemanticKITTI panoptic segmentation task and
state-of-the-art results on nuScenes.
- Abstract(参考訳): ポイントクラウド パンオプティカルセグメンテーションは、コヒーレントなポイントのグループ化を予測するために、セマンティックセグメンテーションとインスタンスセグメンテーションの両方のための総合的なソリューションを求める挑戦的なタスクである。
従来のアプローチでは、セマンティクスとインスタンスセグメンテーションをサロゲートタスクとして扱い、クラスタ化メソッドかバウンディングボックスを使用して、高価な計算とインスタンスセグメンテーションタスクにおける手作り設計によるインスタンスグルーピングを収集する。
本稿では,一組の点レベル分類器を用いて,エンドツーエンドで意味とインスタンス群を直接予測する,シンプルで効果的な点群統合型パノプティックセグメンテーション(PUPS)フレームワークを提案する。
PUPSを実現するために、トレーニングパイプラインに二部マッチングを導入し、分類器は、例えばアンカーやNon-Maximum Suppression(NMS)といった手作りの設計を取り除き、インスタンスのグルーピングを排他的に予測できるようにします。
よりよいグループ化を実現するために, 変圧器デコーダを用いて点分類器を反復的に洗練し, クラス不均衡を克服するコンテキスト認識型カットミックス拡張法を開発した。
その結果、PUPSはSemanticKITTI Panoptic segmentation taskのリーダーボードで1位を獲得し、nuScenesの最先端の結果を得た。
関連論文リスト
- Uncovering Prototypical Knowledge for Weakly Open-Vocabulary Semantic
Segmentation [59.37587762543934]
本稿では,弱開語彙セマンティックセマンティックセグメンテーション(WOVSS)の問題点について検討する。
既存の方法は、グループトークンの使用に関する粒度の矛盾に悩まされる。
マルチモーダル正規化を組み込んだプロトタイプ誘導ネットワーク(PGSeg)を提案する。
論文 参考訳(メタデータ) (2023-10-29T13:18:00Z) - PANet: LiDAR Panoptic Segmentation with Sparse Instance Proposal and
Aggregation [15.664835767712775]
この作業では、オフセットブランチへの依存性を排除するため、PANetという新しいLPSフレームワークを提案する。
PaNet はセマンティック KITII バリデーションと nuScenes バリデーションのパン光学セグメンテーションタスクに関する論文の中で,最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-06-27T10:02:28Z) - CLUSTSEG: Clustering for Universal Segmentation [56.58677563046506]
CLUSTSEGは画像セグメンテーションのための一般的なトランスフォーマーベースのフレームワークである。
これは、統合されたニューラルクラスタリングスキームを通じて、異なるイメージセグメンテーションタスク(スーパーピクセル、セマンティック、インスタンス、パノプティクス)に取り組む。
論文 参考訳(メタデータ) (2023-05-03T15:31:16Z) - 1st Place Solution for PSG competition with ECCV'22 SenseHuman Workshop [1.5362025549031049]
Panoptic Scene Graph (PSG) の生成は、厳密なバウンディングボックスの代わりに、パノプティックセグメンテーションに基づいてシーングラフ表現を生成することを目的としている。
本稿では,Global Relation Networkの2段階パラダイムであるGRNetを提案する。
我々はOpenPSGデータセットの総合的な実験を行い、リードボード上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-02-06T09:47:46Z) - Location-Aware Self-Supervised Transformers [74.76585889813207]
画像部品の相対的な位置を予測し,セマンティックセグメンテーションのためのネットワークを事前訓練する。
参照パッチのサブセットを問合せのサブセットにマスキングすることで,タスクの難しさを制御します。
実験により,この位置認識事前学習が,いくつかの難解なセマンティックセグメンテーションベンチマークに競合する表現をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-05T16:24:29Z) - Beyond the Prototype: Divide-and-conquer Proxies for Few-shot
Segmentation [63.910211095033596]
少ないショットのセグメンテーションは、少数の濃密なラベル付けされたサンプルのみを与えられた、目に見えないクラスオブジェクトをセグメンテーションすることを目的としている。
分割・分散の精神において, 単純かつ多目的な枠組みを提案する。
提案手法は、DCP(disvision-and-conquer proxies)と呼ばれるもので、適切な信頼性のある情報の開発を可能にする。
論文 参考訳(メタデータ) (2022-04-21T06:21:14Z) - CPSeg: Cluster-free Panoptic Segmentation of 3D LiDAR Point Clouds [2.891413712995641]
CPSegと呼ばれるLiDAR点雲のための新しいリアルタイム・エンド・エンド・エンド・パノプティクス・セグメンテーション・ネットワークを提案する。
CPSegは、共有エンコーダ、デュアルデコーダ、タスク認識アテンションモジュール(TAM)、クラスタフリーインスタンスセグメンテーションヘッドを備える。
論文 参考訳(メタデータ) (2021-11-02T16:44:06Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Instance segmentation with the number of clusters incorporated in
embedding learning [15.054120734581826]
本稿では,クラスタリング情報を組込み学習フレームワークFCRNetに組み込むことを提案する。
FCRNetは、クラスタリンググループの数を埋め込み空間に組み込むことで、ポストプロセスの複雑さを和らげる。
FCRNetの優れた性能を検証し、核データセットBBBC006の他の手法と比較した。
論文 参考訳(メタデータ) (2021-03-27T10:03:19Z) - Panoster: End-to-end Panoptic Segmentation of LiDAR Point Clouds [81.12016263972298]
我々は,LiDAR点雲のための提案不要なパノプティックセグメンテーション手法であるパノスターを提案する。
従来のアプローチとは異なり、Panosterでは、インスタンスを識別するための学習ベースのクラスタリングソリューションを組み込んだ、シンプルなフレームワークを提案している。
推論時に、これはクラスに依存しないセグメンテーションとして機能し、パノスターは高速で、精度の点で先行メソッドよりも優れている。
論文 参考訳(メタデータ) (2020-10-28T18:10:20Z) - SASO: Joint 3D Semantic-Instance Segmentation via Multi-scale Semantic
Association and Salient Point Clustering Optimization [8.519716460338518]
セグメンテーションタスクとインスタンスセグメンテーションタスクを共同で行う,SASOという新しい3Dポイントクラウドセグメンテーションフレームワークを提案する。
空間的文脈におけるオブジェクト間の固有相関から着想を得たセグメンテーションタスクに対して,マルチスケールセマンティックアソシエーション(MSA)モジュールを提案する。
例えば、推論手順のみでクラスタリングを利用する以前の作業とは異なるセグメンテーションタスクでは、Salient Point Clustering Optimization (SPCO) モジュールを提案する。
論文 参考訳(メタデータ) (2020-06-25T08:55:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。