論文の概要: GDC- Generalized Distribution Calibration for Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2204.05230v1
- Date: Mon, 11 Apr 2022 16:22:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 15:41:07.863644
- Title: GDC- Generalized Distribution Calibration for Few-Shot Learning
- Title(参考訳): ファウショット学習のためのGDC一般化分布校正
- Authors: Shakti Kumar, Hussain Zaidi
- Abstract要約: 大規模なラベル付きデータセットを組み立てるのにかなりの時間と労力を要するため、機械学習において重要な問題となるショットラーニングはほとんどない。
ほとんどの少数ショット学習アルゴリズムは、2つの制限の1つに悩まされている。
そこで本研究では,全大クラスの重み付きランダム変数として分類する際,少数ショット分布を推定する一般サンプリング手法を提案する。
- 参考スコア(独自算出の注目度): 5.076419064097734
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few shot learning is an important problem in machine learning as large
labelled datasets take considerable time and effort to assemble. Most few-shot
learning algorithms suffer from one of two limitations- they either require the
design of sophisticated models and loss functions, thus hampering
interpretability; or employ statistical techniques but make assumptions that
may not hold across different datasets or features. Developing on recent work
in extrapolating distributions of small sample classes from the most similar
larger classes, we propose a Generalized sampling method that learns to
estimate few-shot distributions for classification as weighted random variables
of all large classes. We use a form of covariance shrinkage to provide
robustness against singular covariances due to overparameterized features or
small datasets. We show that our sampled points are close to few-shot classes
even in cases when there are no similar large classes in the training set. Our
method works with arbitrary off-the-shelf feature extractors and outperforms
existing state-of-the-art on miniImagenet, CUB and Stanford Dogs datasets by 3%
to 5% on 5way-1shot and 5way-5shot tasks and by 1% in challenging cross domain
tasks.
- Abstract(参考訳): 大規模なラベル付きデータセットを組み立てるのにかなりの時間と労力を要するため、機械学習においてショット学習は重要な問題である。
ほとんどの数発の学習アルゴリズムは、洗練されたモデルと損失関数の設計を必要とするか、解釈可能性を妨げるか、統計的手法を用いるが、異なるデータセットや特徴にまたがらない仮定を行う。
類似する大規模クラスから小規模サンプルクラスの分布を外挿する最近の研究を基礎として,全大規模クラスの重み付き確率変数として分類のための最小ショット分布を推定する一般化サンプリング法を提案する。
我々は、過剰パラメータ化特徴や小さなデータセットによる特異共分散に対するロバスト性を提供するために、共分散収縮の一形態を用いる。
トレーニングセットに類似した大きなクラスが存在しない場合であっても,サンプルポイントがほとんどショットクラスであることを示す。
提案手法は任意のオフ・ザ・シェルフ機能抽出器で動作し,MiniImagenet,CUB,Stanford Dogsの既存データセットを5way-1shotタスクと5way-5shotタスクで3%から5%,クロスドメインタスクで1%向上させる。
関連論文リスト
- Calibrating Higher-Order Statistics for Few-Shot Class-Incremental Learning with Pre-trained Vision Transformers [12.590571371294729]
FSCIL(Few-shot class-incremental Learning)は、学習済みのクラスを忘れずに、非常に少ないデータ(5つのサンプル)から新しいクラスにモデルを適応することを目的としている。
マルチショットCIL(MSCIL)の最近の研究は、事前訓練されたモデルを利用して、忘れを減らし、より優れた可塑性を実現する。
私たちは、大規模なデータセットで事前トレーニングされたViTモデルを数ショット設定で使用しています。
論文 参考訳(メタデータ) (2024-04-09T21:12:31Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Collaborative Learning with Different Labeling Functions [7.228285747845779]
我々は、$n$のデータ分布ごとに正確な分類器を学習することを目的とした、協調型PAC学習の亜種について研究する。
データ分布がより弱い実現可能性の仮定を満たす場合、サンプル効率の学習は依然として可能であることを示す。
論文 参考訳(メタデータ) (2024-02-16T04:32:22Z) - Less is More: On the Feature Redundancy of Pretrained Models When
Transferring to Few-shot Tasks [120.23328563831704]
事前訓練されたモデルを下流タスクに転送することは、ターゲットデータと線形探索を行うのと同じくらい簡単である。
線形探索では, 下流データが少ない場合に, 事前学習した特徴が極めて冗長であることを示す。
論文 参考訳(メタデータ) (2023-10-05T19:00:49Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Ortho-Shot: Low Displacement Rank Regularization with Data Augmentation
for Few-Shot Learning [23.465747123791772]
少数の分類において、第一の目的は、新しいクラスをうまく一般化する表現を学ぶことである。
オルソショット(Ortho-Shot)と呼ばれる効率的な低変位ランク(LDR)正規化戦略を提案する。
論文 参考訳(メタデータ) (2021-10-18T14:58:36Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - Few-shot Weakly-Supervised Object Detection via Directional Statistics [55.97230224399744]
少数ショットコモンオブジェクトローカライゼーション(COL)と少数ショット弱監視オブジェクト検出(WSOD)のための確率論的多重インスタンス学習手法を提案する。
本モデルでは,新しいオブジェクトの分布を同時に学習し,期待-最大化ステップにより局所化する。
提案手法は, 単純であるにもかかわらず, 少数のCOLとWSOD, 大規模WSODタスクにおいて, 高いベースラインを達成できることを示す。
論文 参考訳(メタデータ) (2021-03-25T22:34:16Z) - Few-Shot Learning with Intra-Class Knowledge Transfer [100.87659529592223]
アンバランスなデータセットを用いた数発の分類タスクについて検討する。
近年の研究では、生成モデルを用いて数発の授業のトレーニングデータを増やすことで、この課題を解決することが提案されている。
本稿では,近隣クラスが類似した統計情報を共有するという直感で,近隣クラスからのクラス内知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-08-22T18:15:38Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。