論文の概要: Instance Credibility Inference for Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2003.11853v2
- Date: Fri, 3 Apr 2020 01:40:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 21:13:10.688242
- Title: Instance Credibility Inference for Few-Shot Learning
- Title(参考訳): 単発学習におけるインスタンス信頼度推定
- Authors: Yikai Wang, Chengming Xu, Chen Liu, Li Zhang, Yanwei Fu
- Abstract要約: ほとんどショットラーニングは、カテゴリごとに非常に限られたトレーニングデータを持つ新しいオブジェクトを認識することを目的としていない。
本稿では,未ラベルのインスタンスの分散サポートを数発の学習に活用するために,ICI (Instance Credibility Inference) と呼ばれる単純な統計手法を提案する。
我々の単純なアプローチは、広く使われている4つのショットラーニングベンチマークデータセットに基づいて、最先端の新たなデータセットを確立することができる。
- 参考スコア(独自算出の注目度): 45.577880041135785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot learning (FSL) aims to recognize new objects with extremely limited
training data for each category. Previous efforts are made by either leveraging
meta-learning paradigm or novel principles in data augmentation to alleviate
this extremely data-scarce problem. In contrast, this paper presents a simple
statistical approach, dubbed Instance Credibility Inference (ICI) to exploit
the distribution support of unlabeled instances for few-shot learning.
Specifically, we first train a linear classifier with the labeled few-shot
examples and use it to infer the pseudo-labels for the unlabeled data. To
measure the credibility of each pseudo-labeled instance, we then propose to
solve another linear regression hypothesis by increasing the sparsity of the
incidental parameters and rank the pseudo-labeled instances with their sparsity
degree. We select the most trustworthy pseudo-labeled instances alongside the
labeled examples to re-train the linear classifier. This process is iterated
until all the unlabeled samples are included in the expanded training set, i.e.
the pseudo-label is converged for unlabeled data pool. Extensive experiments
under two few-shot settings show that our simple approach can establish new
state-of-the-arts on four widely used few-shot learning benchmark datasets
including miniImageNet, tieredImageNet, CIFAR-FS, and CUB. Our code is
available at: https://github.com/Yikai-Wang/ICI-FSL
- Abstract(参考訳): FSL(Few-shot Learning)は、各カテゴリの訓練データを極めて限定した新しいオブジェクトを認識することを目的としている。
これまでの取り組みは、メタラーニングパラダイムを活用するか、データ拡張における新しい原則を利用して、この極端なデータ収集問題を緩和する。
対照的に,本稿では,限定学習のためのラベルなしインスタンスの分散サポートを活用すべく,インスタンス信頼性推論(ici)と呼ばれる単純な統計手法を提案する。
具体的には,ラベル付き少数ショット例を用いて線形分類器を訓練し,ラベルなしデータの擬似ラベルを推定する。
各擬似ラベル付きインスタンスの信頼性を測定するために、付随パラメータのスパース性を高め、そのスパース度度で擬似ラベル付きインスタンスをランク付けすることにより、別の線形回帰仮説を解くことを提案する。
ラベル付き例とともに最も信頼できる擬似ラベル付きインスタンスを選択し、線形分類器を再訓練する。
このプロセスは、拡張されたトレーニングセットにラベルなしのサンプルがすべて含まれるまで繰り返し、すなわちラベルなしのデータプールに対して擬似ラベルが収束する。
2つのショット設定による大規模な実験により、MiniImageNet, tieredImageNet, CIFAR-FS, CUBなど、広く使われている4つのショット学習ベンチマークデータセットに対して、私たちのシンプルなアプローチが新たな最先端技術を確立することができた。
私たちのコードは、https://github.com/Yikai-Wang/ICI-FSLで利用可能です。
関連論文リスト
- Learning from Label Proportions: Bootstrapping Supervised Learners via Belief Propagation [18.57840057487926]
LLP(Learning from Label Proportions)は、トレーニング中にバッグと呼ばれるインスタンスのグループに対して、アグリゲートレベルのラベルしか利用できない学習問題である。
この設定は、プライバシー上の配慮から、広告や医療などの領域で発生する。
本稿では,この問題に対して,反復的に2つの主要なステップを実行する新しいアルゴリズムフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-12T06:09:26Z) - One Positive Label is Sufficient: Single-Positive Multi-Label Learning
with Label Enhancement [71.9401831465908]
本研究では,SPMLL (Single- positive multi-label learning) について検討した。
ラベルエンハンスメントを用いた単陽性MultIラベル学習という新しい手法を提案する。
ベンチマークデータセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-06-01T14:26:30Z) - Trustable Co-label Learning from Multiple Noisy Annotators [68.59187658490804]
監督されたディープラーニングは、大量の注釈付き例に依存している。
典型的な方法は、複数のノイズアノテータから学習することである。
本稿では,emphTrustable Co-label Learning (TCL)と呼ばれるデータ効率のよい手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T16:57:00Z) - AggMatch: Aggregating Pseudo Labels for Semi-Supervised Learning [25.27527138880104]
半教師付き学習は、大量のラベルのないデータを活用するための効果的なパラダイムであることが証明されている。
AggMatchは、異なる自信のあるインスタンスを使用して初期擬似ラベルを洗練する。
我々は,AggMatchの標準ベンチマークにおける最新の手法に対する有効性を示す実験を行った。
論文 参考訳(メタデータ) (2022-01-25T16:41:54Z) - Improving Contrastive Learning on Imbalanced Seed Data via Open-World
Sampling [96.8742582581744]
我々は、Model-Aware K-center (MAK)と呼ばれるオープンワールドなラベルなしデータサンプリングフレームワークを提案する。
MAKは、尾性、近接性、多様性の3つの単純な原則に従う。
我々はMAKが学習した機能の全体的な表現品質とクラスバランス性の両方を継続的に改善できることを実証した。
論文 参考訳(メタデータ) (2021-11-01T15:09:41Z) - Few-shot Learning via Dependency Maximization and Instance Discriminant
Analysis [21.8311401851523]
そこで本研究では,カテゴリ毎にラベル付きデータが極めて少ない新しいオブジェクトの認識をモデルが学習する,数ショットの学習問題について検討する。
本稿では,少数ショット処理に伴うラベルなしデータを利用して,少数ショット性能を向上させるための簡単な手法を提案する。
論文 参考訳(メタデータ) (2021-09-07T02:19:01Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - How to trust unlabeled data? Instance Credibility Inference for Few-Shot
Learning [47.21354101796544]
本稿では,未ラベルのインスタンスを数発の視覚認識に利用するために,ICI (Instance Credibility Inference) と呼ばれる統計的アプローチを提案する。
擬似ラベル付きインスタンスの信頼性は, それらの付随パラメータの正規化経路に沿ってランク付けし, 最も信頼性の高い擬似ラベル付きインスタンスを拡張ラベル付きインスタンスとして保存する。
論文 参考訳(メタデータ) (2020-07-15T03:38:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。