論文の概要: How to trust unlabeled data? Instance Credibility Inference for Few-Shot
Learning
- arxiv url: http://arxiv.org/abs/2007.08461v4
- Date: Tue, 11 May 2021 03:21:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 06:11:31.011052
- Title: How to trust unlabeled data? Instance Credibility Inference for Few-Shot
Learning
- Title(参考訳): ラベルのないデータを信用する方法?
単発学習におけるインスタンス信頼度推定
- Authors: Yikai Wang, Li Zhang, Yuan Yao, Yanwei Fu
- Abstract要約: 本稿では,未ラベルのインスタンスを数発の視覚認識に利用するために,ICI (Instance Credibility Inference) と呼ばれる統計的アプローチを提案する。
擬似ラベル付きインスタンスの信頼性は, それらの付随パラメータの正規化経路に沿ってランク付けし, 最も信頼性の高い擬似ラベル付きインスタンスを拡張ラベル付きインスタンスとして保存する。
- 参考スコア(独自算出の注目度): 47.21354101796544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning based models have excelled in many computer vision tasks and
appear to surpass humans' performance. However, these models require an
avalanche of expensive human labeled training data and many iterations to train
their large number of parameters. This severely limits their scalability to the
real-world long-tail distributed categories, some of which are with a large
number of instances, but with only a few manually annotated. Learning from such
extremely limited labeled examples is known as Few-shot learning (FSL).
Different to prior arts that leverage meta-learning or data augmentation
strategies to alleviate this extremely data-scarce problem, this paper presents
a statistical approach, dubbed Instance Credibility Inference (ICI) to exploit
the support of unlabeled instances for few-shot visual recognition. Typically,
we repurpose the self-taught learning paradigm to predict pseudo-labels of
unlabeled instances with an initial classifier trained from the few shot and
then select the most confident ones to augment the training set to re-train the
classifier. This is achieved by constructing a (Generalized) Linear Model
(LM/GLM) with incidental parameters to model the mapping from (un-)labeled
features to their (pseudo-)labels, in which the sparsity of the incidental
parameters indicates the credibility of the corresponding pseudo-labeled
instance. We rank the credibility of pseudo-labeled instances along the
regularization path of their corresponding incidental parameters, and the most
trustworthy pseudo-labeled examples are preserved as the augmented labeled
instances. Theoretically, under mild conditions of restricted eigenvalue,
irrepresentability, and large error, our approach is guaranteed to collect all
the correctly-predicted instances from the noisy pseudo-labeled set.
- Abstract(参考訳): ディープラーニングベースのモデルは、多くのコンピュータビジョンタスクに優れ、人間のパフォーマンスを上回っているように見える。
しかし、これらのモデルには、高価なラベル付きトレーニングデータの雪崩と、多数のパラメータをトレーニングするための多くのイテレーションが必要である。
これにより、実世界のロングテール分散カテゴリへのスケーラビリティが大幅に制限される。
このようなラベル付き例から学ぶことはFew-shot Learning(FSL)として知られている。
メタラーニングやデータ拡張戦略を駆使して、この極端なデータ収集問題を軽減する先行技術とは異なり、本稿では、少数の視覚認識のためにラベルなしインスタンスのサポートを利用するためのインスタンス信頼度推論(ici)と呼ばれる統計的アプローチを提案する。
典型的には、自己学習パラダイムを用いて、未ラベルのインスタンスの擬似ラベルを、いくつかのショットから訓練された初期分類器で予測し、最も自信のある分類器を選択して、トレーニングセットを増強し、分類器を再訓練する。
これは(一般化された)線形モデル(lm/glm)と、(未)ラベル付き特徴からそれらのラベル(pseudo-)へのマッピングをモデル化するために、付随的パラメータを持つ(一般化された)線形モデル(lm/glm)を構築して実現される。
擬似ラベル付きインスタンスの信頼性は, それらの付随パラメータの正規化経路に沿ってランク付けし, 最も信頼性の高い擬似ラベル付きインスタンスを拡張ラベル付きインスタンスとして保存する。
理論的には、制限された固有値、表現可能性、大きな誤差の条件下では、ノイズの多い擬似ラベル集合から正しい予測された全てのインスタンスを収集することが保証される。
関連論文リスト
- InstanT: Semi-supervised Learning with Instance-dependent Thresholds [75.91684890150283]
本稿では,既存手法と比較して高い自由度を有するインスタンス依存しきい値の研究を提案する。
インスタンスレベルのあいまいさと擬似ラベルのインスタンス依存エラー率を利用して、すべての未ラベルインスタンスに対して新しいインスタンス依存しきい値関数を考案する。
論文 参考訳(メタデータ) (2023-10-29T05:31:43Z) - Boosting Semi-Supervised Learning by bridging high and low-confidence
predictions [4.18804572788063]
Pseudo-labelingは半教師あり学習(SSL)において重要な技術である
ReFixMatchと呼ばれる新しい手法を提案し、これはトレーニング中にラベルなしのデータをすべて活用することを目的としている。
論文 参考訳(メタデータ) (2023-08-15T00:27:18Z) - Trustable Co-label Learning from Multiple Noisy Annotators [68.59187658490804]
監督されたディープラーニングは、大量の注釈付き例に依存している。
典型的な方法は、複数のノイズアノテータから学習することである。
本稿では,emphTrustable Co-label Learning (TCL)と呼ばれるデータ効率のよい手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T16:57:00Z) - Multi-class Probabilistic Bounds for Self-learning [13.875239300089861]
Pseudo-labelingはエラーを起こしやすいため、ラベルなしのトレーニングデータにノイズのあるラベルを追加するリスクがある。
本稿では,多クラス分類シナリオにおける自己学習を部分的にラベル付きデータで分析する確率的枠組みを提案する。
論文 参考訳(メタデータ) (2021-09-29T13:57:37Z) - Few-shot Learning via Dependency Maximization and Instance Discriminant
Analysis [21.8311401851523]
そこで本研究では,カテゴリ毎にラベル付きデータが極めて少ない新しいオブジェクトの認識をモデルが学習する,数ショットの学習問題について検討する。
本稿では,少数ショット処理に伴うラベルなしデータを利用して,少数ショット性能を向上させるための簡単な手法を提案する。
論文 参考訳(メタデータ) (2021-09-07T02:19:01Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Self-Tuning for Data-Efficient Deep Learning [75.34320911480008]
セルフチューニングは、データ効率のよいディープラーニングを可能にする新しいアプローチである。
ラベル付きおよびラベルなしデータの探索と事前訓練されたモデルの転送を統一する。
SSLとTLの5つのタスクをシャープなマージンで上回ります。
論文 参考訳(メタデータ) (2021-02-25T14:56:19Z) - Instance Credibility Inference for Few-Shot Learning [45.577880041135785]
ほとんどショットラーニングは、カテゴリごとに非常に限られたトレーニングデータを持つ新しいオブジェクトを認識することを目的としていない。
本稿では,未ラベルのインスタンスの分散サポートを数発の学習に活用するために,ICI (Instance Credibility Inference) と呼ばれる単純な統計手法を提案する。
我々の単純なアプローチは、広く使われている4つのショットラーニングベンチマークデータセットに基づいて、最先端の新たなデータセットを確立することができる。
論文 参考訳(メタデータ) (2020-03-26T12:01:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。