論文の概要: Importance of Self-Consistency in Active Learning for Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2008.01860v1
- Date: Tue, 4 Aug 2020 22:18:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 00:51:26.546308
- Title: Importance of Self-Consistency in Active Learning for Semantic
Segmentation
- Title(参考訳): セマンティクスセグメンテーションにおけるアクティブラーニングにおける自己一貫性の重要性
- Authors: S. Alireza Golestaneh, Kris M. Kitani
- Abstract要約: 我々は,少数のラベル付きデータにのみアクセス可能なデータ駆動モデルの性能を向上させるために,自己整合性は自己超越の強力な情報源となることを示す。
提案するアクティブラーニングフレームワークでは,ラベル付けが必要な小さな画像パッチを反復的に抽出する。
現在のモデルが最も分類に苦労しているイメージパッチを見つけることができます。
- 参考スコア(独自算出の注目度): 31.392212891018655
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We address the task of active learning in the context of semantic
segmentation and show that self-consistency can be a powerful source of
self-supervision to greatly improve the performance of a data-driven model with
access to only a small amount of labeled data. Self-consistency uses the simple
observation that the results of semantic segmentation for a specific image
should not change under transformations like horizontal flipping (i.e., the
results should only be flipped). In other words, the output of a model should
be consistent under equivariant transformations. The self-supervisory signal of
self-consistency is particularly helpful during active learning since the model
is prone to overfitting when there is only a small amount of labeled training
data. In our proposed active learning framework, we iteratively extract small
image patches that need to be labeled, by selecting image patches that have
high uncertainty (high entropy) under equivariant transformations. We enforce
pixel-wise self-consistency between the outputs of segmentation network for
each image and its transformation (horizontally flipped) to utilize the rich
self-supervisory information and reduce the uncertainty of the network. In this
way, we are able to find the image patches over which the current model
struggles the most to classify. By iteratively training over these difficult
image patches, our experiments show that our active learning approach reaches
$\sim96\%$ of the top performance of a model trained on all data, by using only
$12\%$ of the total data on benchmark semantic segmentation datasets (e.g.,
CamVid and Cityscapes).
- Abstract(参考訳): セマンティックセグメンテーション(セマンティックセグメンテーション)の文脈におけるアクティブラーニングの課題に対処し、少数のラベル付きデータにのみアクセス可能なデータ駆動モデルの性能を大幅に向上させるために、自己整合性が自己超越の強力な源となることを示す。
自己整合性(Self-Consistency)は、水平反転のような変換の下で、特定の画像に対するセマンティックセグメンテーションの結果が変化すべきでないという単純な観察を用いている。
言い換えれば、モデルの出力は同変変換の下で一貫性を持つべきである。
ラベル付きトレーニングデータが少ない場合, モデルが過度に適合する傾向にあるため, 自己整合性の自己監督信号は, アクティブラーニングにおいて特に有用である。
提案するアクティブラーニングフレームワークでは,同変変換下で不確実性の高い画像パッチを選択することにより,ラベル付けが必要な小さな画像パッチを反復的に抽出する。
画像ごとのセグメンテーションネットワークの出力と変換(水平反転)との間の画素単位の自己整合性を適用し、リッチなセルフスーパーバイザ情報を活用し、ネットワークの不確実性を低減させる。
このようにして、現在のモデルが最も分類に苦労しているイメージパッチを見つけることができます。
これらの困難なイメージパッチを反復的にトレーニングすることで、我々のアクティブな学習アプローチが、ベンチマークセマンティックセグメンテーションデータセット(CamVidやCityscapesなど)の総データ12ドル%だけを使用することで、すべてのデータでトレーニングされたモデルの最高パフォーマンスの$\sim96\%に達することを示しています。
関連論文リスト
- UnSeg: One Universal Unlearnable Example Generator is Enough against All Image Segmentation [64.01742988773745]
未承認のプライベートデータ上での大規模なイメージセグメンテーションモデルのトレーニングに関して、プライバシーに関する懸念が高まっている。
我々は、学習不可能な例の概念を利用して、学習不可能なノイズを原画像に生成し、付加することにより、モデルトレーニングに使用不能な画像を作成する。
6つのメインストリームイメージセグメンテーションタスク、10つの広く使われているデータセット、7つの異なるネットワークアーキテクチャでUnSegの有効性を実証的に検証する。
論文 参考訳(メタデータ) (2024-10-13T16:34:46Z) - MixReorg: Cross-Modal Mixed Patch Reorganization is a Good Mask Learner
for Open-World Semantic Segmentation [110.09800389100599]
セマンティックセグメンテーションのための新鮮で簡単な事前学習パラダイムであるMixReorgを提案する。
我々のアプローチは、パッチとテキストの対応を保ちながら、画像パッチを混合することで、きめ細かいパッチテキストペアデータを生成することである。
マスク学習者としてMixReorgを使用することで、従来のテキスト教師付きセマンティックセマンティックセマンティックモデルは、非常に一般化可能なピクセル・セマンティックアライメントを実現することができる。
論文 参考訳(メタデータ) (2023-08-09T09:35:16Z) - Location-Aware Self-Supervised Transformers [74.76585889813207]
画像部品の相対的な位置を予測し,セマンティックセグメンテーションのためのネットワークを事前訓練する。
参照パッチのサブセットを問合せのサブセットにマスキングすることで,タスクの難しさを制御します。
実験により,この位置認識事前学習が,いくつかの難解なセマンティックセグメンテーションベンチマークに競合する表現をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-05T16:24:29Z) - Efficient Self-Supervision using Patch-based Contrastive Learning for
Histopathology Image Segmentation [0.456877715768796]
画像パッチに対するコントラスト学習を用いた自己教師型画像分割のためのフレームワークを提案する。
完全畳み込みニューラルネットワーク(FCNN)は、入力画像の特徴を識別するために、自己教師型で訓練される。
提案したモデルは10.8kパラメータを持つ単純なFCNNで構成され、高解像度の顕微鏡データセットに収束するのに約5分を要する。
論文 参考訳(メタデータ) (2022-08-23T07:24:47Z) - Remote Sensing Images Semantic Segmentation with General Remote Sensing
Vision Model via a Self-Supervised Contrastive Learning Method [13.479068312825781]
リモートセマンティックセグメンテーションのためのGlobal style and Local matching Contrastive Learning Network (GLCNet)を提案する。
具体的には、画像レベルの表現をより良く学習するために、グローバルスタイルのコントラストモジュールが使用される。
コントラストモジュールにマッチするローカル特徴は、セマンティックセグメンテーションに有用なローカル領域の表現を学習するために設計されている。
論文 参考訳(メタデータ) (2021-06-20T03:03:40Z) - Segmenter: Transformer for Semantic Segmentation [79.9887988699159]
セマンティックセグメンテーションのためのトランスフォーマーモデルであるSegmenterを紹介します。
最近のViT(Vision Transformer)上に構築し,セマンティックセグメンテーションに拡張する。
これは、挑戦的なADE20Kデータセット上でのアートの状態を上回り、Pascal ContextとCityscapesでオンパーを実行する。
論文 参考訳(メタデータ) (2021-05-12T13:01:44Z) - A Closer Look at Self-training for Zero-Label Semantic Segmentation [53.4488444382874]
トレーニング中に見られないクラスをセグメント化できることは、ディープラーニングにおいて重要な技術的課題です。
事前のゼロラベルセマンティクスセグメンテーションは、ビジュアル・セマンティクスの埋め込みや生成モデルを学ぶことによってこのタスクにアプローチする。
本研究では,同一画像の異なる増分から生じる擬似ラベルの交点を取り出し,ノイズの多い擬似ラベルをフィルタリングする整合性正規化器を提案する。
論文 参考訳(メタデータ) (2021-04-21T14:34:33Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Demystifying Contrastive Self-Supervised Learning: Invariances,
Augmentations and Dataset Biases [34.02639091680309]
近年のパフォーマンス向上は、インスタンス分類モデルをトレーニングし、各イメージを扱い、拡張バージョンを単一のクラスのサンプルとして扱うことで実現している。
我々は,MOCO や PIRL のようなアプローチがオクルージョン不変表現を学習することを示した。
第2に、Imagenetのようなクリーンなオブジェクト中心のトレーニングデータセットにアクセスすることで、これらのアプローチがさらに利益を得ることを示す。
論文 参考訳(メタデータ) (2020-07-28T00:11:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。