論文の概要: How Sensitive are Meta-Learners to Dataset Imbalance?
- arxiv url: http://arxiv.org/abs/2104.05344v1
- Date: Mon, 12 Apr 2021 10:47:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 01:05:36.974241
- Title: How Sensitive are Meta-Learners to Dataset Imbalance?
- Title(参考訳): データセットの不均衡に対してメタリーナーはどの程度敏感か?
- Authors: Mateusz Ochal, Massimiliano Patacchiola, Amos Storkey, Jose Vazquez,
Sen Wang
- Abstract要約: ML手法はタスクレベルでの不均衡よりもメタデータセットの不均衡に対して堅牢であることを示す。
これらの結果は、データセットの不均衡とドメインシフトの下で一般化可能な特徴を学習できるMLアルゴリズムの暗黙的な強みを強調している。
- 参考スコア(独自算出の注目度): 13.60699610822265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Meta-Learning (ML) has proven to be a useful tool for training Few-Shot
Learning (FSL) algorithms by exposure to batches of tasks sampled from a
meta-dataset. However, the standard training procedure overlooks the dynamic
nature of the real-world where object classes are likely to occur at different
frequencies. While it is generally understood that imbalanced tasks harm the
performance of supervised methods, there is no significant research examining
the impact of imbalanced meta-datasets on the FSL evaluation task. This study
exposes the magnitude and extent of this problem. Our results show that ML
methods are more robust against meta-dataset imbalance than imbalance at the
task-level with a similar imbalance ratio ($\rho<20$), with the effect holding
even in long-tail datasets under a larger imbalance ($\rho=65$). Overall, these
results highlight an implicit strength of ML algorithms, capable of learning
generalizable features under dataset imbalance and domain-shift. The code to
reproduce the experiments is released under an open-source license.
- Abstract(参考訳): Meta-Learning(ML)は、Few-Shot Learning(FSL)アルゴリズムをメタデータセットからサンプリングされたタスクのバッチに露出させることで、トレーニングツールとして有用であることが証明されている。
しかし、標準的なトレーニング手順は、オブジェクトクラスが異なる周波数で発生する可能性が高い実世界の動的な性質を見落としている。
不均衡なタスクは教師付き手法の性能に悪影響を及ぼすと一般的に理解されているが、不均衡なメタデータセットがFSL評価タスクに与える影響について重要な研究は行われていない。
この研究はこの問題の規模と範囲を明らかにする。
その結果,ML手法はタスクレベルでのメタデータセットの不均衡に対して,類似の不均衡比(\rho<20$)よりも頑健であり,ロングテールデータセットにおいても大きな不均衡率(\rho=65$)で効果が保たれることがわかった。
これらの結果は、データセットの不均衡とドメインシフトの下で一般化可能な特徴を学習できるMLアルゴリズムの暗黙的な強みを強調している。
実験を再現するコードはオープンソースライセンスでリリースされている。
関連論文リスト
- Conformal-in-the-Loop for Learning with Imbalanced Noisy Data [5.69777817429044]
大規模なデータセットでは、クラス不均衡とラベルノイズが広まっています。
機械学習の研究の多くは、よくラベル付けされたバランスの取れたデータを前提としている。
コンフォーマル・イン・ザ・ループ(Conformal-in-the-Loop, CitL)は,コンフォーマルな予測に基づく手法を用いて,両課題に対処する新しいトレーニングフレームワークである。
論文 参考訳(メタデータ) (2024-11-04T17:09:58Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - Class Imbalance in Object Detection: An Experimental Diagnosis and Study
of Mitigation Strategies [0.5439020425818999]
本研究は, YOLOv5単段検出器を用いて, 前地上クラス不均衡問題に対処するベンチマークフレームワークを提案する。
我々は,サンプリング,損失重み付け,データ強化という3つの確立した手法を精査した。
比較分析の結果,2段階検出法では有効であるが,YOLOv5の性能向上には有効ではないことが明らかとなった。
論文 参考訳(メタデータ) (2024-03-11T19:06:04Z) - Exploring Vision-Language Models for Imbalanced Learning [29.235472353759388]
対照的な言語画像事前学習を用いた視覚言語モデル(VLM)は、ゼロショット分類性能が有望であることを示す。
本研究では,大容量データによって事前学習されたVLMに対して,不均衡学習アルゴリズムが重要であることを明らかにする。
論文 参考訳(メタデータ) (2023-04-04T01:56:16Z) - An Embarrassingly Simple Baseline for Imbalanced Semi-Supervised
Learning [103.65758569417702]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルのパフォーマンスを向上させるという大きな約束を示している。
我々は、ラベル付きデータとラベルなしデータの両方で不均衡なクラス分散が発生する不均衡SSLという、より現実的で困難な設定について検討する。
我々は、ラベル付きデータを擬似ラベルで単純に補うことで、データの不均衡に取り組む単純なベースライン、SimiSについて研究する。
論文 参考訳(メタデータ) (2022-11-20T21:18:41Z) - Scale-Equivalent Distillation for Semi-Supervised Object Detection [57.59525453301374]
近年のSemi-Supervised Object Detection (SS-OD) 法は主に自己学習に基づいており、教師モデルにより、ラベルなしデータを監視信号としてハードな擬似ラベルを生成する。
実験結果から,これらの手法が直面する課題を分析した。
本稿では,大規模オブジェクトサイズの分散とクラス不均衡に頑健な簡易かつ効果的なエンド・ツー・エンド知識蒸留フレームワークであるSED(Scale-Equivalent Distillation)を提案する。
論文 参考訳(メタデータ) (2022-03-23T07:33:37Z) - BASIL: Balanced Active Semi-supervised Learning for Class Imbalanced
Datasets [14.739359755029353]
現在の半教師付き学習(SSL)メソッドは、ラベル付きデータセットとラベルなしデータセットの両方で、各クラスで利用可能なデータポイントの数の間のバランスを前提としている。
本研究では,サブモジュール相互情報(SMI)関数をクラスごとに最適化し,アクティブな学習ループにおけるバランスの取れたデータセットを徐々に選択するアルゴリズムであるBASILを提案する。
論文 参考訳(メタデータ) (2022-03-10T21:34:08Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Self-supervised Learning is More Robust to Dataset Imbalance [65.84339596595383]
データセット不均衡下での自己教師型学習について検討する。
既製の自己教師型表現は、教師型表現よりもクラス不均衡に対してすでに堅牢である。
我々は、不均衡なデータセット上でSSL表現品質を一貫して改善する、再重み付け正規化手法を考案した。
論文 参考訳(メタデータ) (2021-10-11T06:29:56Z) - Few-Shot Learning with Class Imbalance [13.60699610822265]
少数ショット学習は、クエリセットから取得したサンプルを一般化するために、サポートセットに与えられた限られた数のラベル付きサンプルでモデルをトレーニングすることを目的としている。
標準設定では、サポートセットは各クラスに対して等しい量のデータポイントを含んでいる。
本稿では,メタデータセット対タスク不均衡,異なる不均衡分布の効果(線形,ステップ,ランダム),再バランス手法の効果の3つの軸に沿ったクラス不均衡について詳細に検討する。
論文 参考訳(メタデータ) (2021-01-07T12:54:32Z) - Machine Learning Pipeline for Pulsar Star Dataset [58.720142291102135]
この作業は、最も一般的な機械学習(ML)アルゴリズムをまとめるものだ。
目的は、不均衡なデータの集合から得られた結果のレベルの比較を行うことである。
論文 参考訳(メタデータ) (2020-05-03T23:35:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。