論文の概要: Better Generalized Few-Shot Learning Even Without Base Data
- arxiv url: http://arxiv.org/abs/2211.16095v1
- Date: Tue, 29 Nov 2022 11:10:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 14:34:43.597107
- Title: Better Generalized Few-Shot Learning Even Without Base Data
- Title(参考訳): ベースデータなしでもより汎用的な少数ショット学習
- Authors: Seongwoong Kim and Dong-Wan Choi
- Abstract要約: ゼロベース一般化された数ショット学習は、数ショット学習問題の極端に実用的なバージョンである。
プライバシーや倫理上の問題からベースデータが入手できない場合の動機として、ゼロベースGFSLの目的は、新しいクラスのサンプルのほとんどをベースクラスのサンプルなしで事前訓練されたモデルに組み込むことである。
- 参考スコア(独自算出の注目度): 5.71097144710995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces and studies zero-base generalized few-shot learning
(zero-base GFSL), which is an extreme yet practical version of few-shot
learning problem. Motivated by the cases where base data is not available due
to privacy or ethical issues, the goal of zero-base GFSL is to newly
incorporate the knowledge of few samples of novel classes into a pretrained
model without any samples of base classes. According to our analysis, we
discover the fact that both mean and variance of the weight distribution of
novel classes are not properly established, compared to those of base classes.
The existing GFSL methods attempt to make the weight norms balanced, which we
find helps only the variance part, but discard the importance of mean of
weights particularly for novel classes, leading to the limited performance in
the GFSL problem even with base data. In this paper, we overcome this
limitation by proposing a simple yet effective normalization method that can
effectively control both mean and variance of the weight distribution of novel
classes without using any base samples and thereby achieve a satisfactory
performance on both novel and base classes. Our experimental results somewhat
surprisingly show that the proposed zero-base GFSL method that does not utilize
any base samples even outperforms the existing GFSL methods that make the best
use of base data.
- Abstract(参考訳): 本稿では,ゼロベース一般化されたゼロショット学習 (zero-base gfsl) について紹介・検討する。
プライバシーや倫理上の問題からベースデータが入手できない場合の動機として、ゼロベースGFSLの目的は、新しいクラスのサンプルのほとんどをベースクラスのサンプルなしで事前訓練されたモデルに組み込むことである。
分析の結果,新規クラスの重み分布の平均と分散が,基礎クラスの重み分布と比較して適切に確立されていないことが明らかとなった。
既存のgfsl法は重み規範のバランスを保とうとしているが、これは分散部分のみに寄与するが、特に新しいクラスでは重みの平均の重要性は捨て、ベースデータにおいてもgfsl問題の性能が限られている。
本稿では,新規クラスの重み分布の平均と分散をベースサンプルを用いずに効果的に制御できる簡易かつ効果的な正規化手法を提案することで,この限界を克服し,新規クラスとベースクラスの双方で満足できる性能を実現する。
実験結果から,提案したゼロベースGFSL法は,ベースデータを最大限に活用する既存のGFSL法よりも優れていることがわかった。
関連論文リスト
- Covariance-based Space Regularization for Few-shot Class Incremental Learning [25.435192867105552]
FSCIL(Few-shot Class Incremental Learning)では,ラベル付きデータに制限のあるクラスを継続的に学習する必要がある。
インクリメンタルセッションにおける限られたデータのため、モデルは新しいクラスを過度に適合させ、ベースクラスの破滅的な忘れを苦しむ傾向にある。
最近の進歩は、基本クラス分布を制約し、新しいクラスの識別的表現を学習するプロトタイプベースのアプローチに頼っている。
論文 参考訳(メタデータ) (2024-11-02T08:03:04Z) - Class Similarity Transition: Decoupling Class Similarities and Imbalance from Generalized Few-shot Segmentation [17.33292771556997]
本稿では, 基本クラスと新規クラスの関連性に着目し, 一般ファウショット(GFSS)の改良について述べる。
まず,基本クラス知識を持つ新しいクラスを学習するための類似性遷移行列を提案する。
次に、GFSSタスクにLDAM損失とトランスダクティブ推論を利用して、クラス不均衡の問題に対処する。
論文 参考訳(メタデータ) (2024-04-08T00:13:05Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - Generalized Logit Adjustment: Calibrating Fine-tuned Models by Removing Label Bias in Foundation Models [75.9543301303586]
CLIPのようなファンデーションモデルは、追加のトレーニングデータなしで、さまざまなタスクでゼロショット転送を可能にする。
微調整やアンサンブルも一般的に下流のタスクに合うように採用されている。
しかし、先行研究は基礎モデルに固有のバイアスを見落としていると論じる。
論文 参考訳(メタデータ) (2023-10-12T08:01:11Z) - Adaptive Distribution Calibration for Few-Shot Learning with
Hierarchical Optimal Transport [78.9167477093745]
本稿では,新しいサンプルとベースクラス間の適応重み行列を学習し,新しい分布校正法を提案する。
標準ベンチマーク実験の結果,提案したプラグ・アンド・プレイモデルの方が競合する手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-10-09T02:32:57Z) - MaxMatch: Semi-Supervised Learning with Worst-Case Consistency [149.03760479533855]
半教師付き学習(SSL)のための最悪ケース整合正則化手法を提案する。
本稿では,ラベル付きトレーニングデータとラベル付きトレーニングデータとを別々に比較した経験的損失項からなるSSLの一般化について述べる。
この境界によって動機づけられたSSLの目的は、元のラベルのないサンプルと、その複数の拡張版との最大の矛盾を最小限に抑えるものである。
論文 参考訳(メタデータ) (2022-09-26T12:04:49Z) - Bridging Non Co-occurrence with Unlabeled In-the-wild Data for
Incremental Object Detection [56.22467011292147]
物体検出における破滅的忘れを緩和するために,いくつかの漸進的学習法が提案されている。
有効性にもかかわらず、これらの手法は新規クラスのトレーニングデータにラベルのないベースクラスの共起を必要とする。
そこで本研究では,新たな授業の訓練において,欠落した基本クラスが原因で生じる非発生を補うために,未ラベルのインザ・ザ・ワイルドデータを使用することを提案する。
論文 参考訳(メタデータ) (2021-10-28T10:57:25Z) - Training image classifiers using Semi-Weak Label Data [26.04162590798731]
多重インスタンス学習(MIL)では、弱ラベルがバッグレベルで提供され、存在/存在情報のみが知られる。
本稿では,この問題を軽減するため,新たな半弱ラベル学習パラダイムを提案する。
半弱ラベルから学習する問題に対処する2段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-19T03:06:07Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。