論文の概要: Sparse-Shot Learning for Extremely Many Localisations
- arxiv url: http://arxiv.org/abs/2104.10425v1
- Date: Wed, 21 Apr 2021 09:09:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 14:33:30.413197
- Title: Sparse-Shot Learning for Extremely Many Localisations
- Title(参考訳): 非常に多くの局所化に対するスパースショット学習
- Authors: Andreas Panteli, Jonas Teuwen, Hugo Horlings, Efstratios Gavves
- Abstract要約: 計算病理組織セクションでは、寸法がすぐに250'000x250'000ピクセルを超える非常に大きな画像です。
それらすべてに注釈をつけることは事実上不可能であり、より多くのうち、わずかに注釈を付けることが唯一の可能性である。
2次損失誘導体を調べることでバイアス学習を遅くする排他的なクロスエントロピーを提示する。
- 参考スコア(独自算出の注目度): 21.636314104035357
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Object localisation is typically considered in the context of regular images,
for instance depicting objects like people or cars. In these images there is
typically a relatively small number of instances per image per class, which
usually is manageable to annotate. However, outside the realm of regular images
we are often confronted with a different situation. In computational pathology
digitised tissue sections are extremely large images, whose dimensions quickly
exceed 250'000x250'000 pixels, where relevant objects, such as tumour cells or
lymphocytes can quickly number in the millions. Annotating them all is
practically impossible and annotating sparsely a few, out of many more, is the
only possibility. Unfortunately, learning from sparse annotations, or
sparse-shot learning, clashes with standard supervised learning because what is
not annotated is treated as a negative. However, assigning negative labels to
what are true positives leads to confusion in the gradients and biased
learning. To this end, we present exclusive cross entropy, which slows down the
biased learning by examining the second-order loss derivatives in order to drop
the loss terms corresponding to likely biased terms. Experiments on nine
datasets and two different localisation tasks, detection with YOLLO and
segmentation with Unet, show that we obtain considerable improvements compared
to cross entropy or focal loss, while often reaching the best possible
performance for the model with only 10-40 of annotations.
- Abstract(参考訳): オブジェクトのローカライゼーションは、通常イメージのコンテキストにおいて、例えば人や車のようなオブジェクトを描写する。
これらの画像では、通常、クラス毎の画像あたりのインスタンス数は比較的少なく、アノテーションを管理できる。
しかし、通常の画像の領域の外では、しばしば異なる状況に直面します。
計算病理学において、デジタル化された組織断面は、非常に大きな画像であり、その次元はすぐに250'000×250'000ピクセルを超える。
これらすべてに注釈をつけることは事実上不可能であり、より多くのうちわずかに注釈を付けることが唯一の可能性である。
不運なことに、スパースアノテーションやスパースショット学習からの学習は、注釈のないものは否定的な扱いを受けるため、標準的な教師付き学習と衝突する。
しかし、負のラベルを正の値に割り当てると、勾配と偏りのある学習が混乱する。
そこで本研究では,2次損失導関数を用いてバイアス付き学習を遅くし,バイアス付き項に対応する損失項を減少させる排他的クロスエントロピーを提案する。
9つのデータセットと2つの異なるローカライゼーションタスク(YOLLOによる検出とUnetによるセグメンテーション)の実験では、クロスエントロピーや焦点損失よりも大幅に改善されている一方で、10~40のアノテーションしか持たないモデルで最高のパフォーマンスに達することが示されている。
関連論文リスト
- Saliency Guided Contrastive Learning on Scene Images [71.07412958621052]
我々は、学習中のモデルの出力から導かれるサリエンシマップを活用し、差別的な領域を強調し、対照的な学習全体をガイドする。
提案手法は,画像上の自己教師学習の性能を,画像の線形評価において+1.1,+4.3,+2.2の精度で向上させる。
論文 参考訳(メタデータ) (2023-02-22T15:54:07Z) - Learning to Annotate Part Segmentation with Gradient Matching [58.100715754135685]
本稿では,事前学習したGANを用いて,高品質な画像を生成することで,半教師付き部分分割タスクに対処することに焦点を当てる。
特に、アノテータ学習を学習から学習までの問題として定式化する。
提案手法は,実画像,生成された画像,さらには解析的に描画された画像を含む,幅広いラベル付き画像からアノテータを学習可能であることを示す。
論文 参考訳(メタデータ) (2022-11-06T01:29:22Z) - Learning to segment from object sizes [0.0]
本稿では,数画素の注釈付き画像と既知のオブジェクトサイズを持つ多数の画像のデータセットから,ディープセグメンテーションネットワークをトレーニングするアルゴリズムを提案する。
このアルゴリズムは、勾配をサンプリングし、標準のバックプロパゲーションアルゴリズムを使用することで、オブジェクトサイズに対して定義された離散的な(微分不可能な)損失関数を最小化する。
論文 参考訳(メタデータ) (2022-07-01T09:34:44Z) - Object-aware Contrastive Learning for Debiased Scene Representation [74.30741492814327]
オブジェクトを自己教師型でローカライズする,オブジェクト認識型コントラスト学習フレームワークを開発した。
また、コントラCAM、オブジェクト認識型乱作、背景混合に基づく2つのデータ拡張を導入し、コントラスト型自己教師型学習における文脈バイアスと背景バイアスを低減した。
論文 参考訳(メタデータ) (2021-07-30T19:24:07Z) - Sparse Object-level Supervision for Instance Segmentation with Pixel
Embeddings [4.038011160363972]
ほとんどの最先端のインスタンスセグメンテーションメソッドは、密接な注釈付き画像でトレーニングする必要があります。
非空間埋め込みに基づく提案フリーセグメンテーション手法を提案する。
本研究では, 異なる顕微鏡モードにおける2次元および3次元分割問題の解法について検討した。
論文 参考訳(メタデータ) (2021-03-26T16:36:56Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Intriguing Properties of Contrastive Losses [12.953112189125411]
コントラスト学習の3つの興味深い特性について検討する。
複数のオブジェクトが存在する画像に対して、インスタンスベースのコントラスト学習がうまく学習できるかどうかを検討する。
対照的な学習では、学習しやすい共有機能のいくつかは、競合する機能の集合の学習を抑え、さらに完全に阻止することができる。
論文 参考訳(メタデータ) (2020-11-05T13:19:48Z) - Delving into Inter-Image Invariance for Unsupervised Visual
Representations [108.33534231219464]
画像間不変学習の役割をよりよく理解するための研究を提案する。
オンラインラベルはオフラインラベルよりも早く収束する。
半硬な負のサンプルは、硬い負のサンプルよりも信頼性が高く、偏りがない。
論文 参考訳(メタデータ) (2020-08-26T17:44:23Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z) - One-Shot Image Classification by Learning to Restore Prototypes [11.448423413463916]
ワンショット画像分類は、カテゴリ毎に1つの画像しか持たないデータセット上で、イメージ分類器を訓練することを目的としている。
ワンショット学習では、既存のメトリック学習アプローチは、単一のトレーニングイメージがクラスを代表するものではない可能性があるため、パフォーマンスが低下する。
本稿では,RestoreNet で表される単純な回帰モデルを提案する。画像特徴のクラス変換を学習し,特徴空間のクラス中心に画像を移動させる。
論文 参考訳(メタデータ) (2020-05-04T02:11:30Z) - Continual Local Replacement for Few-shot Learning [13.956960291580938]
少数ショット学習の目標は,1つないし少数のトレーニングデータに基づいて,新しいクラスを認識可能なモデルを学習することにある。
1)新しいクラスの優れた特徴表現が欠けていること、(2)ラベル付きデータの一部が真のデータ分布を正確に表現できないこと、である。
データ不足問題に対処するために,新たな局所的置換戦略を提案する。
論文 参考訳(メタデータ) (2020-01-23T04:26:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。