論文の概要: Region-Aware Metric Learning for Open World Semantic Segmentation via
Meta-Channel Aggregation
- arxiv url: http://arxiv.org/abs/2205.08083v1
- Date: Tue, 17 May 2022 04:12:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-18 13:59:01.734390
- Title: Region-Aware Metric Learning for Open World Semantic Segmentation via
Meta-Channel Aggregation
- Title(参考訳): メタチャネルアグリゲーションによるオープンワールド意味セグメンテーションのための領域認識メトリック学習
- Authors: Hexin Dong, Zifan Chen, Mingze Yuan, Yutong Xie, Jie Zhao, Fei Yu, Bin
Dong, Li Zhang
- Abstract要約: 領域認識メトリックラーニング(RAML)という手法を提案する。
RAMLは画像の領域を分離し、さらなるメトリック学習のための領域認識機能を生成する。
提案したRAMLは,オープンワールドセグメンテーションの両段階においてSOTA性能を実現する。
- 参考スコア(独自算出の注目度): 19.584457251137252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As one of the most challenging and practical segmentation tasks, open-world
semantic segmentation requires the model to segment the anomaly regions in the
images and incrementally learn to segment out-of-distribution (OOD) objects,
especially under a few-shot condition. The current state-of-the-art (SOTA)
method, Deep Metric Learning Network (DMLNet), relies on pixel-level metric
learning, with which the identification of similar regions having different
semantics is difficult. Therefore, we propose a method called region-aware
metric learning (RAML), which first separates the regions of the images and
generates region-aware features for further metric learning. RAML improves the
integrity of the segmented anomaly regions. Moreover, we propose a novel
meta-channel aggregation (MCA) module to further separate anomaly regions,
forming high-quality sub-region candidates and thereby improving the model
performance for OOD objects. To evaluate the proposed RAML, we have conducted
extensive experiments and ablation studies on Lost And Found and Road Anomaly
datasets for anomaly segmentation and the CityScapes dataset for incremental
few-shot learning. The results show that the proposed RAML achieves SOTA
performance in both stages of open world segmentation. Our code and appendix
are available at https://github.com/czifan/RAML.
- Abstract(参考訳): 最も困難で実用的なセグメンテーションタスクの1つとして、オープンワールドセグメンテーションでは、画像内の異常領域をセグメンテーションし、特に数発の条件下でOODオブジェクトのセグメンテーションを漸進的に学習する必要がある。
現在の最先端(SOTA)手法であるDeep Metric Learning Network (DMLNet)は、画素レベルのメートル法学習に依存しており、異なる意味を持つ類似領域の識別は困難である。
そこで我々は,まず画像の領域を分離し,さらに距離学習を行う領域認識メトリックラーニング(RAML)という手法を提案する。
RAMLはセグメント化された異常領域の整合性を改善する。
さらに,新たなメタチャネルアグリゲーション(MCA)モジュールを提案し,異常領域をさらに分離し,高品質なサブリージョン候補を生成し,OODオブジェクトのモデル性能を向上させる。
提案したRAMLを評価するために,異常セグメンテーションのためのLost And FoundおよびRoad Anomalyデータセットと,漸進的な数ショット学習のためのCityScapesデータセットについて,広範な実験とアブレーション研究を行った。
提案したRAMLは,オープンワールドセグメンテーションの両段階においてSOTA性能を実現する。
私たちのコードと付録はhttps://github.com/czifan/ramlで閲覧できます。
関連論文リスト
- SAM-Assisted Remote Sensing Imagery Semantic Segmentation with Object
and Boundary Constraints [9.238103649037951]
本稿では,SAM生成オブジェクト(SGO)とSAM生成境界(SGB)という2つの新しい概念を活用することにより,SAMの生出力を活用するフレームワークを提案する。
本稿では,SGOのコンテンツ特性を考慮し,セマンティックな情報を持たないセグメンテーション領域を活用するために,オブジェクト整合性の概念を導入する。
境界損失は、モデルが対象の境界情報に注意を向けることによって、SGBの特徴的な特徴に重きを置いている。
論文 参考訳(メタデータ) (2023-12-05T03:33:47Z) - Optimization Efficient Open-World Visual Region Recognition [55.76437190434433]
RegionSpotは、ローカライゼーション基盤モデルから位置認識ローカライゼーション知識と、ViLモデルからのセマンティック情報を統合する。
オープンワールドオブジェクト認識の実験では、私たちのRereaSpotは、以前の代替よりも大きなパフォーマンス向上を実現しています。
論文 参考訳(メタデータ) (2023-11-02T16:31:49Z) - Region Generation and Assessment Network for Occluded Person
Re-Identification [43.49129366128688]
個人再識別(ReID)は近年,幅広い応用分野において,より重要な役割を担っている。
ほとんどの手法は、ボディ部分の特定やマッチング戦略の活用に外部ツールを活用することで、このような課題に対処する。
人体領域を効果的かつ効率的に検出する領域生成評価ネットワーク(RGANet)を提案する。
論文 参考訳(メタデータ) (2023-09-07T08:41:47Z) - R-MAE: Regions Meet Masked Autoencoders [113.73147144125385]
我々は、自己教師付き画像表現学習のための単語の潜在的な視覚的類似として領域を探索する。
生成前トレーニングベースラインであるMasked Autoencoding (MAE) に触発されて, 画素群や領域群から学習するためのマスク付き領域オートエンコーディングを提案する。
論文 参考訳(メタデータ) (2023-06-08T17:56:46Z) - Region-Enhanced Feature Learning for Scene Semantic Segmentation [19.20735517821943]
計算負担を軽減するために,細粒度点やボクセルの代わりに点雲の中間表現として領域を用いることを提案する。
本研究では,セマンティック空間領域抽出段階と領域依存モデリング段階からなるRFEモジュールを設計する。
我々のREFL-NetはScanNetV2で1.8% mIoUゲイン、S3DISデータセットで1.7% mIoUゲインを無視可能な計算コストで達成している。
論文 参考訳(メタデータ) (2023-04-15T06:35:06Z) - USER: Unified Semantic Enhancement with Momentum Contrast for Image-Text
Retrieval [115.28586222748478]
Image-Text Retrieval (ITR) は、与えられたクエリに意味のあるターゲットインスタンスを、他のモダリティから検索することを目的としている。
既存のアプローチは通常、2つの大きな制限に悩まされる。
論文 参考訳(メタデータ) (2023-01-17T12:42:58Z) - Spatial Likelihood Voting with Self-Knowledge Distillation for Weakly
Supervised Object Detection [54.24966006457756]
自己知識蒸留ネットワーク(SLV-SDネット)を用いたWSODフレームワークを提案する。
SLV-SD Netは、境界ボックスアノテーションなしで領域提案のローカライゼーションを収束させる。
PASCAL VOC 2007/2012およびMS-COCOデータセットの実験は、SLV-SD Netの優れた性能を示している。
論文 参考訳(メタデータ) (2022-04-14T11:56:19Z) - Boosting Few-shot Semantic Segmentation with Transformers [81.43459055197435]
TRansformer-based Few-shot Semantic segmentation Method (TRFS)
我々のモデルは,グローバル・エンハンスメント・モジュール(GEM)とローカル・エンハンスメント・モジュール(LEM)の2つのモジュールから構成される。
論文 参考訳(メタデータ) (2021-08-04T20:09:21Z) - Global Aggregation then Local Distribution for Scene Parsing [99.1095068574454]
提案手法は,エンドツーエンドのトレーニング可能なブロックとしてモジュール化され,既存のセマンティックセグメンテーションネットワークに容易に接続可能であることを示す。
私たちのアプローチでは、Cityscapes、ADE20K、Pascal Context、Camvid、COCO-stuffといった主要なセマンティックセグメンテーションベンチマークに基づいて、新しい最先端の技術を構築できます。
論文 参考訳(メタデータ) (2021-07-28T03:46:57Z) - Remote Sensing Images Semantic Segmentation with General Remote Sensing
Vision Model via a Self-Supervised Contrastive Learning Method [13.479068312825781]
リモートセマンティックセグメンテーションのためのGlobal style and Local matching Contrastive Learning Network (GLCNet)を提案する。
具体的には、画像レベルの表現をより良く学習するために、グローバルスタイルのコントラストモジュールが使用される。
コントラストモジュールにマッチするローカル特徴は、セマンティックセグメンテーションに有用なローカル領域の表現を学習するために設計されている。
論文 参考訳(メタデータ) (2021-06-20T03:03:40Z) - Rethinking Semantic Segmentation Evaluation for Explainability and Model
Selection [12.786648212233116]
地域ベースのオーバーおよびアンダーセグメンテーションを評価するための新しいメトリクスを紹介します。
分析して他のメトリクスと比較し、実世界のアプリケーションにおけるセマンティックセグメンテーションモデルのパフォーマンスをより説明しやすくなることを示す。
論文 参考訳(メタデータ) (2021-01-21T03:12:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。