論文の概要: Few-Shot Learning with Class Imbalance
- arxiv url: http://arxiv.org/abs/2101.02523v1
- Date: Thu, 7 Jan 2021 12:54:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 16:25:33.809075
- Title: Few-Shot Learning with Class Imbalance
- Title(参考訳): クラス不均衡による小数点学習
- Authors: Mateusz Ochal, Massimiliano Patacchiola, Amos Storkey, Jose Vazquez,
Sen Wang
- Abstract要約: 少数ショット学習は、クエリセットから取得したサンプルを一般化するために、サポートセットに与えられた限られた数のラベル付きサンプルでモデルをトレーニングすることを目的としている。
標準設定では、サポートセットは各クラスに対して等しい量のデータポイントを含んでいる。
本稿では,メタデータセット対タスク不均衡,異なる不均衡分布の効果(線形,ステップ,ランダム),再バランス手法の効果の3つの軸に沿ったクラス不均衡について詳細に検討する。
- 参考スコア(独自算出の注目度): 13.60699610822265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot learning aims to train models on a limited number of labeled samples
given in a support set in order to generalize to unseen samples from a query
set. In the standard setup, the support set contains an equal amount of data
points for each class. However, this assumption overlooks many practical
considerations arising from the dynamic nature of the real world, such as
class-imbalance. In this paper, we present a detailed study of few-shot
class-imbalance along three axes: meta-dataset vs. task imbalance, effect of
different imbalance distributions (linear, step, random), and effect of
rebalancing techniques. We extensively compare over 10 state-of-the-art
few-shot learning and meta-learning methods using unbalanced tasks and
meta-datasets. Our analysis using Mini-ImageNet reveals that 1) compared to the
balanced task, the performances on class-imbalance tasks counterparts always
drop, by up to $18.0\%$ for optimization-based methods, and up to $8.4$ for
metric-based methods, 2) contrary to popular belief, meta-learning algorithms,
such as MAML, do not automatically learn to balance by being exposed to
imbalanced tasks during (meta-)training time, 3) strategies used to mitigate
imbalance in supervised learning, such as oversampling, can offer a stronger
solution to the class imbalance problem, 4) the effect of imbalance at the
meta-dataset level is less significant than the effect at the task level with
similar imbalance magnitude. The code to reproduce the experiments is released
under an open-source license.
- Abstract(参考訳): 少数ショット学習は、クエリセットから取得したサンプルを一般化するために、サポートセットに与えられた限られた数のラベル付きサンプルでモデルをトレーニングすることを目的としている。
標準設定では、サポートセットは各クラスに対して等しい量のデータポイントを含んでいる。
しかし、この仮定は、クラス不均衡のような実世界の動的な性質から生じる多くの実践的な考察を見落としている。
本稿では,メタデータセット対タスク不均衡,異なる不均衡分布の効果(線形,ステップ,ランダム),再バランス手法の効果の3つの軸に沿ったクラス不均衡について詳細に検討する。
非バランスなタスクとメタデータセットを用いた10以上の最先端のショットラーニングとメタラーニングを比較した。
Our analysis using Mini-ImageNet reveals that 1) compared to the balanced task, the performances on class-imbalance tasks counterparts always drop, by up to $18.0\%$ for optimization-based methods, and up to $8.4$ for metric-based methods, 2) contrary to popular belief, meta-learning algorithms, such as MAML, do not automatically learn to balance by being exposed to imbalanced tasks during (meta-)training time, 3) strategies used to mitigate imbalance in supervised learning, such as oversampling, can offer a stronger solution to the class imbalance problem, 4) the effect of imbalance at the meta-dataset level is less significant than the effect at the task level with similar imbalance magnitude.
実験を再現するコードはオープンソースライセンスでリリースされている。
関連論文リスト
- BalanceBenchmark: A Survey for Imbalanced Learning [9.858467766666223]
マルチモーダル学習は、異なるモーダルからの情報を統合する能力に注目されている。
これは、あるモダリティが支配的であり、他のモダリティが未利用のままであるマルチモーダル不均衡問題によってしばしば妨げられる。
我々は,主要な多モード不均衡アルゴリズムを,不均衡を緩和するための戦略に基づいて4つのグループに体系的に分類する。
論文 参考訳(メタデータ) (2025-02-15T14:42:42Z) - Simplifying Neural Network Training Under Class Imbalance [77.39968702907817]
実世界のデータセットは、しばしば高いクラス不均衡であり、ディープラーニングモデルのパフォーマンスに悪影響を及ぼす可能性がある。
クラス不均衡下でのニューラルネットワークのトレーニングに関する研究の大部分は、特殊な損失関数、サンプリング技術、または2段階のトレーニング手順に焦点を当てている。
バッチサイズやデータ拡張,ラベルの平滑化といった,標準的なディープラーニングパイプラインの既存のコンポーネントを単にチューニングするだけで,そのような特殊なクラス不均衡な手法を使わずに,最先端のパフォーマンスを達成できることを実証する。
論文 参考訳(メタデータ) (2023-12-05T05:52:44Z) - Class-Imbalanced Graph Learning without Class Rebalancing [62.1368829847041]
クラス不均衡は実世界のノード分類タスクでよく見られ、グラフ学習モデルには大きな課題がある。
本研究では、トポロジカルパラダイムからクラス不均衡バイアスの根本原因にアプローチする。
我々は,クラス再バランスを伴わずにクラス不均衡バイアスを軽減するために,軽量なトポロジカル拡張フレームワークであるBATを考案した。
論文 参考訳(メタデータ) (2023-08-27T19:01:29Z) - Rethinking Class Imbalance in Machine Learning [1.4467794332678536]
不均衡学習は、クラス不均衡の存在下での学習タスクに焦点を当てた機械学習のサブフィールドである。
本研究では,機械学習におけるクラス不均衡の新しい分類法を提案する。
比例, 分散, 距離不均衡が同時に存在する場合に, 対数摂動に基づく新たな不均衡学習損失を提案する。
論文 参考訳(メタデータ) (2023-05-06T02:36:39Z) - Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification [74.62203971625173]
不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T01:23:54Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Towards Inter-class and Intra-class Imbalance in Class-imbalanced
Learning [24.01370257373491]
不均衡学習(IL)は、データマイニングアプリケーションに広く存在する重要な問題である。
本稿では,多目的アンサンブル学習フレームワークである Duple-Balanced Ensemble について述べる。
一般的な手法とは異なり、DUBEは、重い距離ベースの計算に頼ることなく、クラス間およびクラス内バランスを直接実行する。
論文 参考訳(メタデータ) (2021-11-24T20:50:54Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - MetaBalance: High-Performance Neural Networks for Class-Imbalanced Data [42.81296448544681]
あるクラスが他のクラスよりもはるかに多くのサンプルを含むクラス不均衡データは、現実世界のアプリケーションではユビキタスである。
クラス不均衡を扱う標準的なテクニックは、通常、再重み付けされた損失や再均衡されたデータのトレーニングによって機能する。
本手法は,画像分類,クレジットカード不正検出,ローンデフォルト予測,顔認識タスクを極めて不均衡なデータで評価する。
論文 参考訳(メタデータ) (2021-06-17T16:42:50Z) - How Sensitive are Meta-Learners to Dataset Imbalance? [13.60699610822265]
ML手法はタスクレベルでの不均衡よりもメタデータセットの不均衡に対して堅牢であることを示す。
これらの結果は、データセットの不均衡とドメインシフトの下で一般化可能な特徴を学習できるMLアルゴリズムの暗黙的な強みを強調している。
論文 参考訳(メタデータ) (2021-04-12T10:47:42Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。