論文の概要: MESA: Boost Ensemble Imbalanced Learning with MEta-SAmpler
- arxiv url: http://arxiv.org/abs/2010.08830v1
- Date: Sat, 17 Oct 2020 17:29:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 09:11:35.832498
- Title: MESA: Boost Ensemble Imbalanced Learning with MEta-SAmpler
- Title(参考訳): MESA:Meta-SAmplerによるアンサンブルインバランスラーニング
- Authors: Zhining Liu, Pengfei Wei, Jing Jiang, Wei Cao, Jiang Bian, Yi Chang
- Abstract要約: 我々はMESAという新しいアンサンブルILフレームワークを紹介する。
複数の分類器を取得し、カスケードアンサンブルモデルを形成するために、反復でトレーニングセットを適応的に再サンプリングする。
一般的なメタラーニングベースのILソリューションとは異なり、MESAではモデルトレーニングとメタトレーニングを分離する。
- 参考スコア(独自算出の注目度): 30.46938660561697
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Imbalanced learning (IL), i.e., learning unbiased models from
class-imbalanced data, is a challenging problem. Typical IL methods including
resampling and reweighting were designed based on some heuristic assumptions.
They often suffer from unstable performance, poor applicability, and high
computational cost in complex tasks where their assumptions do not hold. In
this paper, we introduce a novel ensemble IL framework named MESA. It
adaptively resamples the training set in iterations to get multiple classifiers
and forms a cascade ensemble model. MESA directly learns the sampling strategy
from data to optimize the final metric beyond following random heuristics.
Moreover, unlike prevailing meta-learning-based IL solutions, we decouple the
model-training and meta-training in MESA by independently train the
meta-sampler over task-agnostic meta-data. This makes MESA generally applicable
to most of the existing learning models and the meta-sampler can be efficiently
applied to new tasks. Extensive experiments on both synthetic and real-world
tasks demonstrate the effectiveness, robustness, and transferability of MESA.
Our code is available at https://github.com/ZhiningLiu1998/mesa.
- Abstract(参考訳): 不均衡学習(il)、すなわちクラス不均衡データから偏りのないモデルを学ぶことは難しい問題である。
再サンプリングや重み付けを含む典型的なilメソッドは、いくつかのヒューリスティックな仮定に基づいて設計された。
それらはしばしば不安定な性能、不適切な適用性、そして彼らの仮定が持たない複雑なタスクにおける高い計算コストに苦しむ。
本稿では,MESAという新しいアンサンブルILフレームワークを紹介する。
反復でトレーニングセットを適応的に再サンプリングし、複数の分類器を取得し、カスケードアンサンブルモデルを形成する。
MESAはデータからサンプリング戦略を直接学習し、ランダムなヒューリスティックに従わない最終指標を最適化する。
さらに、メタ学習ベースのILソリューションとは異なり、タスク非依存のメタデータに対してメタサンプルを独立にトレーニングすることで、MESAにおけるモデルトレーニングとメタトレーニングを分離する。
これにより、MESAは既存の学習モデルのほとんどに適用でき、メタサンプルは新しいタスクに効率的に適用できる。
合成タスクと実世界のタスクの両方に対する大規模な実験は、MESAの有効性、堅牢性、および伝達性を示している。
私たちのコードはhttps://github.com/zhiningliu1998/mesaで利用可能です。
関連論文リスト
- MetaGPT: Merging Large Language Models Using Model Exclusive Task Arithmetic [6.46176287368784]
textbfGPTスケールモデルをマージするための textbfModel textbfExclusive textbfTask textbfArithmetic を提案する。
提案するMetaGPTは,データに依存しず,検索処理を回避し,低コストで実装が容易なメタGPTである。
論文 参考訳(メタデータ) (2024-06-17T10:12:45Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - Take the Bull by the Horns: Hard Sample-Reweighted Continual Training
Improves LLM Generalization [165.98557106089777]
大きな言語モデル(LLM)の能力を高めることが大きな課題だ。
本研究は,従来の事前学習データセットを用いたLCMの光連続訓練に関する実証的戦略から始まった。
次に、この戦略をインスタンス重み付け分散ロバスト最適化の原則化されたフレームワークに定式化します。
論文 参考訳(メタデータ) (2024-02-22T04:10:57Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Uncertainty-aware Parameter-Efficient Self-training for Semi-supervised
Language Understanding [38.11411155621616]
我々は,主に半教師あり学習の手法として,自己学習について研究している。
我々は,新しい不確かさを意識した自己学習フレームワークであるUPETを紹介する。
UPETは性能と効率の面で大幅に向上したことを示す。
論文 参考訳(メタデータ) (2023-10-19T02:18:29Z) - Meta-Learning with Self-Improving Momentum Target [72.98879709228981]
メタラーナーの性能を向上させるために,SiMT(Self-improving Momentum Target)を提案する。
SiMTはメタラーナーの時間アンサンブルから適応してターゲットモデルを生成する。
我々は、SiMTが幅広いメタ学習手法と組み合わせることで、大きなパフォーマンス向上をもたらすことを示す。
論文 参考訳(メタデータ) (2022-10-11T06:45:15Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - A Nested Bi-level Optimization Framework for Robust Few Shot Learning [10.147225934340877]
NestedMAMLはトレーニングタスクやインスタンスに重みを割り当てることを学ぶ。
合成および実世界のデータセットの実験では、NestedMAMLは「不要な」タスクやインスタンスの効果を効率的に緩和している。
論文 参考訳(メタデータ) (2020-11-13T06:41:22Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。