論文の概要: Deep Active Learning for Joint Classification & Segmentation with Weak
Annotator
- arxiv url: http://arxiv.org/abs/2010.04889v2
- Date: Sat, 14 Nov 2020 04:09:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 22:45:11.567698
- Title: Deep Active Learning for Joint Classification & Segmentation with Weak
Annotator
- Title(参考訳): 弱アノテーションを用いた統合分類・分節のための深部能動学習
- Authors: Soufiane Belharbi, Ismail Ben Ayed, Luke McCaffrey, Eric Granger
- Abstract要約: クラスアクティベーションマップ(CAM)のようなCNNの可視化と解釈手法は、一般的に、クラス予測に関連する画像領域を強調するために使用される。
本稿では,画素レベルのアノテーションを段階的に統合する能動的学習フレームワークを提案する。
提案手法は, ランダムなサンプル選択を用いることで, 最先端のCAMやAL手法よりも優れた性能を示すことを示す。
- 参考スコア(独自算出の注目度): 22.271760669551817
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: CNN visualization and interpretation methods, like class-activation maps
(CAMs), are typically used to highlight the image regions linked to class
predictions. These models allow to simultaneously classify images and extract
class-dependent saliency maps, without the need for costly pixel-level
annotations. However, they typically yield segmentations with high
false-positive rates and, therefore, coarse visualisations, more so when
processing challenging images, as encountered in histology. To mitigate this
issue, we propose an active learning (AL) framework, which progressively
integrates pixel-level annotations during training. Given training data with
global image-level labels, our deep weakly-supervised learning model jointly
performs supervised image-level classification and active learning for
segmentation, integrating pixel annotations by an oracle. Unlike standard AL
methods that focus on sample selection, we also leverage large numbers of
unlabeled images via pseudo-segmentations (i.e., self-learning at the pixel
level), and integrate them with the oracle-annotated samples during training.
We report extensive experiments over two challenging benchmarks --
high-resolution medical images (histology GlaS data for colon cancer) and
natural images (CUB-200-2011 for bird species). Our results indicate that, by
simply using random sample selection, the proposed approach can significantly
outperform state-of the-art CAMs and AL methods, with an identical
oracle-supervision budget. Our code is publicly available.
- Abstract(参考訳): クラスアクティベーションマップ(cams)のようなcnnの可視化と解釈手法は、一般的にクラス予測に関連付けられた画像領域を強調するために使用される。
これらのモデルは、画像の同時分類とクラス依存の唾液マップの抽出を可能にする。
しかし、通常は偽陽性率の高いセグメンテーションを生じさせ、それゆえ、組織学で見られるような困難な画像を処理する場合よりも粗い視認性をもたらす。
この問題を軽減するため,我々は,学習中にピクセルレベルのアノテーションを段階的に統合するアクティブラーニング(al)フレームワークを提案する。
グローバルな画像レベルのラベルを用いたトレーニングデータから,教師付き画像レベルの分類とセグメンテーションのための能動的学習を共同で行い,オラクルによる画素アノテーションを統合する。
サンプル選択にフォーカスする標準的なALメソッドとは異なり、擬似セグメンテーション(ピクセルレベルでの自己学習)を通じて多数の未ラベル画像を活用し、訓練中にオラクルに注釈付けされたサンプルと統合する。
高分解能な医用画像(大腸癌の病理組織学的Glasデータ)と自然画像(鳥のCUB-200-2011)の2つのベンチマークについて広範な実験を行った。
提案手法は, ランダムサンプル選択を単純に使用すれば, 同一のオラクル・スーパービジョン予算で, 最先端のCAMとALの手法を著しく上回り得ることを示す。
私たちのコードは公開されています。
関連論文リスト
- Multilevel Saliency-Guided Self-Supervised Learning for Image Anomaly
Detection [15.212031255539022]
異常検出(AD)はコンピュータビジョンの基本課題である。
そこで我々は,サリエンシガイダンスを活用して意味的手がかりを付加するCutSwapを提案する。
CutSwapは、2つの主流ADベンチマークデータセット上で最先端のADパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-11-30T08:03:53Z) - CSP: Self-Supervised Contrastive Spatial Pre-Training for
Geospatial-Visual Representations [90.50864830038202]
ジオタグ付き画像の自己教師型学習フレームワークであるContrastive Spatial Pre-Training(CSP)を提案する。
デュアルエンコーダを用いて画像とその対応する位置情報を別々に符号化し、コントラスト目的を用いて画像から効果的な位置表現を学習する。
CSPは、様々なラベル付きトレーニングデータサンプリング比と10~34%の相対的な改善で、モデル性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-05-01T23:11:18Z) - High-fidelity Pseudo-labels for Boosting Weakly-Supervised Segmentation [17.804090651425955]
画像レベルの弱い教師付きセグメンテーション(WSSS)は、トレーニング中にセグメンテーションマスクを代理することで、通常膨大なデータアノテーションコストを削減する。
本研究は,GAPの代替となる重要サンプリングと特徴類似性損失という,CAMを改善するための2つの手法に基づく。
複数の独立二項問題の後部二項問題に基づいて両手法を再構成する。
パフォーマンスが向上し、より一般的なものになり、事実上あらゆるWSSSメソッドを増強できるアドオンメソッドが出来上がります。
論文 参考訳(メタデータ) (2023-04-05T17:43:57Z) - MoBYv2AL: Self-supervised Active Learning for Image Classification [57.4372176671293]
画像分類のための自己教師型アクティブラーニングフレームワークであるMoBYv2ALを提案する。
私たちの貢献は、最も成功した自己教師付き学習アルゴリズムであるMoBYをALパイプラインに持ち上げることです。
近年のAL法と比較すると,最先端の結果が得られている。
論文 参考訳(メタデータ) (2023-01-04T10:52:02Z) - A Pixel-Level Meta-Learner for Weakly Supervised Few-Shot Semantic
Segmentation [40.27705176115985]
Few-shotのセマンティックセマンティックセグメンテーションは、興味のある新しいクラスのために、地上の真実のピクセルレベルのラベルを持つ少数の画像しか利用できない学習タスクに対処する。
限られたデータとその意味ラベルから擬似画素レベルのセグメンテーションマスクを予測するメタラーニングフレームワークを提案する。
提案する学習モデルは,画素レベルのメタラーナーとみなすことができる。
論文 参考訳(メタデータ) (2021-11-02T08:28:11Z) - Mixed Supervision Learning for Whole Slide Image Classification [88.31842052998319]
超高解像度画像のための混合監視学習フレームワークを提案する。
パッチトレーニングの段階では、このフレームワークは、粗いイメージレベルのラベルを使用して、自己教師付き学習を洗練することができる。
画素レベルの偽陽性と偽陰性を抑制するための包括的な戦略が提案されている。
論文 参考訳(メタデータ) (2021-07-02T09:46:06Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Efficient Full Image Interactive Segmentation by Leveraging Within-image
Appearance Similarity [39.17599924322882]
インタラクティブなフルイメージセマンティックセマンティックセグメンテーションのための新しいアプローチを提案する。
ラベル付き画素からラベルなしピクセルへの伝搬は必ずしもクラス固有の知識を必要としない。
この観測に基づいて,複数のクラスから画素ラベルを共同で伝播する手法を提案する。
論文 参考訳(メタデータ) (2020-07-16T08:21:59Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。