論文の概要: CPRAL: Collaborative Panoptic-Regional Active Learning for Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2112.05975v1
- Date: Sat, 11 Dec 2021 13:13:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 16:46:21.741560
- Title: CPRAL: Collaborative Panoptic-Regional Active Learning for Semantic
Segmentation
- Title(参考訳): CPRAL: セマンティックセグメンテーションのための協調型パノプティカルアクティブラーニング
- Authors: Yu Qiao, Jincheng Zhu, Chengjiang Long, Zeyao Zhang, Yuxin Wang,
Zhenjun Du, Xin Yang
- Abstract要約: セグメンテーションタスクに対処する協調型パノプティカルアクティブラーニングフレームワーク(CPRAL)を提案する。
セグメンテーションデータセットのクラス不均衡を考慮し、セグメンテーションバイアス選択を実現するためにRegional Gaussian Attention Module (RGA)をインポートする。
CPRALは最先端手法よりも優れた性能を示し,ラベリング率も低い。
- 参考スコア(独自算出の注目度): 35.11139361684248
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Acquiring the most representative examples via active learning (AL) can
benefit many data-dependent computer vision tasks by minimizing efforts of
image-level or pixel-wise annotations. In this paper, we propose a novel
Collaborative Panoptic-Regional Active Learning framework (CPRAL) to address
the semantic segmentation task. For a small batch of images initially sampled
with pixel-wise annotations, we employ panoptic information to initially select
unlabeled samples. Considering the class imbalance in the segmentation dataset,
we import a Regional Gaussian Attention module (RGA) to achieve
semantics-biased selection. The subset is highlighted by vote entropy and then
attended by Gaussian kernels to maximize the biased regions. We also propose a
Contextual Labels Extension (CLE) to boost regional annotations with contextual
attention guidance. With the collaboration of semantics-agnostic panoptic
matching and regionbiased selection and extension, our CPRAL can strike a
balance between labeling efforts and performance and compromise the semantics
distribution. We perform extensive experiments on Cityscapes and BDD10K
datasets and show that CPRAL outperforms the cutting-edge methods with
impressive results and less labeling proportion.
- Abstract(参考訳): アクティブラーニング(al)を通じて最も代表的な例を取得することは、画像レベルやピクセル単位のアノテーションの労力を最小化することで、多くのデータ依存のコンピュータビジョンタスクに役立つ。
本稿では,セマンティックセグメンテーションタスクに対処するための新しい協調型panoptic-regional active learning framework(cpral)を提案する。
ピクセル毎のアノテーションで最初にサンプリングされた画像の小さなバッチでは、まずpanoptic情報を使用してラベルなしのサンプルを選択します。
セグメンテーションデータセットのクラス不均衡を考慮し、セグメンテーションバイアス選択を実現するためにRegional Gaussian Attention Module (RGA)をインポートする。
サブセットは投票エントロピーで強調され、その後ガウスのカーネルが参加してバイアス領域を最大化する。
また,コンテキストアテンションガイダンスを用いた地域アノテーション向上のためのコンテキストラベル拡張(CLE)を提案する。
セマンティクス非依存の汎光学マッチングと地域バイアス選択と拡張の協調により、CPRALはラベル付けの取り組みと性能のバランスを保ち、セマンティクスの分布を損なうことができる。
我々はCityscapesとBDD10Kデータセットに関する広範な実験を行い、CPRALが最先端の手法よりも優れた結果とラベルの比率が低いことを示す。
関連論文リスト
- Auxiliary Tasks Enhanced Dual-affinity Learning for Weakly Supervised
Semantic Segmentation [79.05949524349005]
AuxSegNet+は、サリエンシマップから豊富な情報を探索する弱教師付き補助学習フレームワークである。
また,サリエンシとセグメンテーションの特徴マップから画素レベルの親和性を学習するためのクロスタスク親和性学習機構を提案する。
論文 参考訳(メタデータ) (2024-03-02T10:03:21Z) - Exploring Open-Vocabulary Semantic Segmentation without Human Labels [76.15862573035565]
我々は、既存の事前学習された視覚言語モデル(VL)を利用して意味的セグメンテーションモデルを訓練するZeroSegを提案する。
ZeroSegは、VLモデルで学んだ視覚概念をセグメントトークンの集合に蒸留することでこれを克服し、それぞれが対象画像の局所化領域を要約する。
提案手法は,他のゼロショットセグメンテーション法と比較して,同じトレーニングデータを用いた場合と比較して,最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T08:47:06Z) - Localized Region Contrast for Enhancing Self-Supervised Learning in
Medical Image Segmentation [27.82940072548603]
本稿では,地域コントラスト(LRC)を統合した新しいコントラスト学習フレームワークを提案する。
提案手法では,Felzenszwalbのアルゴリズムによるスーパーピクセルの同定と,新しいコントラッシブサンプリング損失を用いた局所コントラスト学習を行う。
論文 参考訳(メタデータ) (2023-04-06T22:43:13Z) - Context Label Learning: Improving Background Class Representations in
Semantic Segmentation [23.79946807540805]
不均一な背景を持つニューラルネットワークは、対応するコンテキストサンプルを特徴空間内のコンパクトクラスタにマッピングするのに苦労している。
背景クラスを複数のサブクラスに分解することでコンテキスト表現を改善するためにコンテキストラベル学習(CoLab)を提案する。
結果は、CoLabがセグメンテーションモデルをガイドして、背景サンプルのログを決定境界から切り離すことができることを示している。
論文 参考訳(メタデータ) (2022-12-16T11:52:15Z) - Improving Semi-Supervised and Domain-Adaptive Semantic Segmentation with
Self-Supervised Depth Estimation [94.16816278191477]
本稿では,セミアダプティブなセマンティックセマンティックセマンティックセグメンテーションのためのフレームワークを提案する。
ラベルのない画像シーケンスでのみ訓練された自己教師付き単眼深度推定によって強化される。
提案したモデルをCityscapesデータセット上で検証する。
論文 参考訳(メタデータ) (2021-08-28T01:33:38Z) - Leveraging Auxiliary Tasks with Affinity Learning for Weakly Supervised
Semantic Segmentation [88.49669148290306]
そこで我々はAuxSegNetと呼ばれる弱教師付きマルチタスク・フレームワークを提案し,サリエンシ検出とマルチラベル画像分類を補助タスクとして活用する。
同様の構造的セマンティクスに着想を得て,サリエンシとセグメンテーションの表現から,クロスタスクなグローバル画素レベルの親和性マップを学習することを提案する。
学習されたクロスタスク親和性は、両方のタスクに対して改善された擬似ラベルを提供するために、唾液度予測を洗練し、CAMマップを伝播するために使用することができる。
論文 参考訳(メタデータ) (2021-07-25T11:39:58Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Deep Active Learning for Joint Classification & Segmentation with Weak
Annotator [22.271760669551817]
クラスアクティベーションマップ(CAM)のようなCNNの可視化と解釈手法は、一般的に、クラス予測に関連する画像領域を強調するために使用される。
本稿では,画素レベルのアノテーションを段階的に統合する能動的学習フレームワークを提案する。
提案手法は, ランダムなサンプル選択を用いることで, 最先端のCAMやAL手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2020-10-10T03:25:54Z) - Manifold-driven Attention Maps for Weakly Supervised Segmentation [9.289524646688244]
本稿では,視覚的に有意な領域を強化するために,多様体駆動型注意ネットワークを提案する。
提案手法は,余分な計算を必要とせずに,推論中により優れた注意マップを生成できる。
論文 参考訳(メタデータ) (2020-04-07T00:03:28Z) - Weakly-Supervised Semantic Segmentation by Iterative Affinity Learning [86.45526827323954]
弱教師付きセマンティックセグメンテーションは、トレーニングのためにピクセル単位のラベル情報が提供されないため、難しい課題である。
このようなペア関係を学習するための反復アルゴリズムを提案する。
本稿では,提案アルゴリズムが最先端手法に対して好適に動作することを示す。
論文 参考訳(メタデータ) (2020-02-19T10:32:03Z) - Reinforced active learning for image segmentation [34.096237671643145]
深部強化学習(RL)に基づく意味的セグメンテーションのための新しいアクティブラーニング戦略を提案する。
エージェントは、ラベルなしデータのプールからラベル付けされる小さな情報領域(画像全体とは対照的に)のサブセットを選択するポリシーを学ぶ。
本手法では, 意味的セグメンテーション問題の大規模性質に適応して, 能動的学習のための深部Q-network (DQN) の定式化を新たに提案する。
論文 参考訳(メタデータ) (2020-02-16T14:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。