論文の概要: MaskRange: A Mask-classification Model for Range-view based LiDAR
Segmentation
- arxiv url: http://arxiv.org/abs/2206.12073v1
- Date: Fri, 24 Jun 2022 04:39:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-27 13:59:49.036576
- Title: MaskRange: A Mask-classification Model for Range-view based LiDAR
Segmentation
- Title(参考訳): MaskRange: レンジビューに基づくLiDARセグメンテーションのためのマスク分類モデル
- Authors: Yi Gu, Yuming Huang, Chengzhong Xu, Hui Kong
- Abstract要約: 本研究では,範囲ビューに基づくLiDARセマンティクスとパノプティックセグメンテーションのためのマスク分類モデルMaskRangeを提案する。
我々のMaskRangeは、セマンティックセグメンテーションにおける6.10ドルmIoUの最先端性能と、高い効率でパノプティクスセグメンテーションにおける53.10ドルPQの有望な結果を達成する。
- 参考スコア(独自算出の注目度): 34.04740351544143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Range-view based LiDAR segmentation methods are attractive for practical
applications due to their direct inheritance from efficient 2D CNN
architectures. In literature, most range-view based methods follow the
per-pixel classification paradigm. Recently, in the image segmentation domain,
another paradigm formulates segmentation as a mask-classification problem and
has achieved remarkable performance. This raises an interesting question: can
the mask-classification paradigm benefit the range-view based LiDAR
segmentation and achieve better performance than the counterpart per-pixel
paradigm? To answer this question, we propose a unified mask-classification
model, MaskRange, for the range-view based LiDAR semantic and panoptic
segmentation. Along with the new paradigm, we also propose a novel data
augmentation method to deal with overfitting, context-reliance, and
class-imbalance problems. Extensive experiments are conducted on the
SemanticKITTI benchmark. Among all published range-view based methods, our
MaskRange achieves state-of-the-art performance with $66.10$ mIoU on semantic
segmentation and promising results with $53.10$ PQ on panoptic segmentation
with high efficiency. Our code will be released.
- Abstract(参考訳): レンジビューに基づくLiDARセグメンテーション手法は、効率的な2D CNNアーキテクチャから直接継承されるため、実用的な応用には魅力的である。
文献では、ほとんどの範囲ビューに基づく手法はピクセル単位の分類パラダイムに従う。
近年,イメージセグメンテーション領域において,マスク分類問題としてセグメンテーションを定式化した別のパラダイムが注目されている。
マスク分類パラダイムは、レンジビューベースのLiDARセグメンテーションの恩恵を受け、ピクセル単位のパラダイムよりも優れたパフォーマンスを実現することができるのか?
そこで本稿では,レンジビューに基づくlidarセマンティクスとpanopticセグメンテーションのためのマスク分類モデルであるmaskrangeを提案する。
また,新しいパラダイムとともに,オーバーフィッティングやコンテキスト依存,クラス不均衡といった問題に対処する新しいデータ拡張手法を提案する。
semantickittiベンチマークで広範な実験が行われた。
得られた範囲ビューベースの手法のうち、我々のMaskRangeは、セマンティックセグメンテーションにおける6.10$ mIoUの最先端性能と、高い効率でパノプティクスセグメンテーションにおける53.10$ PQの有望な結果を達成する。
私たちのコードはリリースされます。
関連論文リスト
- MaskUno: Switch-Split Block For Enhancing Instance Segmentation [0.0]
マスク予測を洗練されたROIを処理し、それらを分類し、特定のマスク予測者に割り当てるスイッチスプリットブロックに置き換えることを提案する。
平均平均精度(mAP)が2.03%上昇し,80クラスにおいて高い成績を示した。
論文 参考訳(メタデータ) (2024-07-31T10:12:14Z) - PosSAM: Panoptic Open-vocabulary Segment Anything [58.72494640363136]
PosSAMはオープン・ボキャブラリ・パノプティ・セグメンテーション・モデルであり、Segment Anything Model(SAM)の強みを、エンドツーエンドのフレームワークで視覚ネイティブのCLIPモデルと統合する。
本稿では,マスクの質を適応的に向上し,各画像の推論中にオープン語彙分類の性能を高めるマスク対応選択組立アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-14T17:55:03Z) - Generalizable Entity Grounding via Assistance of Large Language Model [77.07759442298666]
本稿では,長いキャプションから密接な視覚的実体を抽出する手法を提案する。
本研究では,意味代名詞の抽出に大規模なマルチモーダルモデル,エンティティレベルのセグメンテーションを生成するクラス-aセグメンテーションモデル,および各セグメンテーション名詞と対応するセグメンテーションマスクを関連付けるマルチモーダル特徴融合モジュールを利用する。
論文 参考訳(メタデータ) (2024-02-04T16:06:05Z) - Mask2Anomaly: Mask Transformer for Universal Open-set Segmentation [29.43462426812185]
本稿では,画素単位の分類からマスク分類へのシフトによるパラダイム変化を提案する。
マスクをベースとしたMask2Anomalyは,マスク分類アーキテクチャの統合の可能性を示した。
総合的質的・質的評価により, Mask2Anomaly は新たな最先端結果が得られることを示す。
論文 参考訳(メタデータ) (2023-09-08T20:07:18Z) - Discovering Object Masks with Transformers for Unsupervised Semantic
Segmentation [75.00151934315967]
MaskDistillは教師なしセマンティックセグメンテーションのための新しいフレームワークである。
我々のフレームワークは、低レベルの画像キューにラッチを付けず、オブジェクト中心のデータセットに限らない。
論文 参考訳(メタデータ) (2022-06-13T17:59:43Z) - Few-shot semantic segmentation via mask aggregation [5.886986014593717]
セマンティックセグメンテーションは、ラベル付きデータが少ない新しいクラスを認識することを目的としている。
従来の研究では、これをピクセル単位の分類問題と見なしていた。
この問題に対処するためのマスクベースの分類手法を提案する。
論文 参考訳(メタデータ) (2022-02-15T07:13:09Z) - Per-Pixel Classification is Not All You Need for Semantic Segmentation [184.2905747595058]
マスク分類はセマンティックレベルのセグメンテーションタスクとインスタンスレベルのセグメンテーションタスクの両方を解くのに十分一般的である。
マスクの集合を予測する単純なマスク分類モデルであるMaskFormerを提案する。
提案手法は,現在の最先端セマンティック(ADE20Kでは55.6 mIoU)とパノプティックセグメンテーション(COCOでは52.7 PQ)モデルの両方に優れる。
論文 参考訳(メタデータ) (2021-07-13T17:59:50Z) - Learning Class-Agnostic Pseudo Mask Generation for Box-Supervised
Semantic Segmentation [156.9155100983315]
ボックス教師付きセマンティクスセグメンテーションに合わせた,より正確な学習ベースのクラス非依存な擬似マスクジェネレータを求める。
この方法は、ボックス監視モデルとフル監視モデルの間のパフォーマンスギャップをさらに埋めることができます。
論文 参考訳(メタデータ) (2021-03-09T14:54:54Z) - LevelSet R-CNN: A Deep Variational Method for Instance Segmentation [79.20048372891935]
現在、多くのアートモデルはMask R-CNNフレームワークに基づいている。
本稿では,両世界の長所を結合したR-CNNを提案する。
我々はCOCOおよびCityscapesデータセットに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2020-07-30T17:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。