論文の概要: Active Class Incremental Learning for Imbalanced Datasets
- arxiv url: http://arxiv.org/abs/2008.10968v1
- Date: Tue, 25 Aug 2020 12:47:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 04:00:41.014711
- Title: Active Class Incremental Learning for Imbalanced Datasets
- Title(参考訳): 不均衡データセットに対するアクティブクラスインクリメンタル学習
- Authors: Eden Belouadah, Adrian Popescu, Umang Aggarwal, L\'eo Saci
- Abstract要約: インクリメンタルラーニング(IL)は、AIシステムがストリームデータに適応できるようにする。
既存のアルゴリズムの多くは、2つの強い仮説を立て、漸進的なシナリオの現実性を減らす。
不均衡に対処し、IL制約に適合するサンプル取得関数を導入する。
- 参考スコア(独自算出の注目度): 10.680349952226935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Incremental Learning (IL) allows AI systems to adapt to streamed data. Most
existing algorithms make two strong hypotheses which reduce the realism of the
incremental scenario: (1) new data are assumed to be readily annotated when
streamed and (2) tests are run with balanced datasets while most real-life
datasets are actually imbalanced. These hypotheses are discarded and the
resulting challenges are tackled with a combination of active and imbalanced
learning. We introduce sample acquisition functions which tackle imbalance and
are compatible with IL constraints. We also consider IL as an imbalanced
learning problem instead of the established usage of knowledge distillation
against catastrophic forgetting. Here, imbalance effects are reduced during
inference through class prediction scaling. Evaluation is done with four visual
datasets and compares existing and proposed sample acquisition functions.
Results indicate that the proposed contributions have a positive effect and
reduce the gap between active and standard IL performance.
- Abstract(参考訳): インクリメンタル学習(il)は、aiシステムがストリームデータに適応できるようにする。
既存のアルゴリズムの多くは,段階的なシナリオの現実性を低下させる2つの強い仮説を立てている。(1)新しいデータはストリーミング時に容易に注釈付けされ,(2)テストはバランスの取れたデータセットで実行され,一方、ほとんどの実生活データセットは実際には不均衡である。
これらの仮説は破棄され、結果として生じる課題は、アクティブな学習と非バランスな学習の組み合わせに対処される。
不均衡に対処し、IL制約に適合するサンプル取得関数を導入する。
また,ilを,破滅的な忘れ方に対する知識蒸留の確立した利用ではなく,不均衡な学習問題と考える。
ここでは、クラス予測スケーリングを通じて推論中の不均衡効果を減少させる。
評価は4つのビジュアルデータセットで行われ、既存のデータと提案されているサンプル取得関数を比較する。
その結果,提案したコントリビューションは肯定的な効果を示し,アクティブなIL性能と標準IL性能のギャップを減らした。
関連論文リスト
- Conformal-in-the-Loop for Learning with Imbalanced Noisy Data [5.69777817429044]
大規模なデータセットでは、クラス不均衡とラベルノイズが広まっています。
機械学習の研究の多くは、よくラベル付けされたバランスの取れたデータを前提としている。
コンフォーマル・イン・ザ・ループ(Conformal-in-the-Loop, CitL)は,コンフォーマルな予測に基づく手法を用いて,両課題に対処する新しいトレーニングフレームワークである。
論文 参考訳(メタデータ) (2024-11-04T17:09:58Z) - Ultra-imbalanced classification guided by statistical information [24.969543903532664]
我々は,エンフルトラ不均衡分類(UIC)と呼ばれる新しい定式化を提案することによって,不均衡学習に対する集団レベルのアプローチをとる。
UICでは、無限のトレーニングサンプルが利用可能であっても、損失関数は異なる振る舞いをする。
UIC下でのデータ不均衡に対して確実に抵抗できる新しい学習目標であるTunable Boosting Lossを開発した。
論文 参考訳(メタデータ) (2024-09-06T08:07:09Z) - Gradient Reweighting: Towards Imbalanced Class-Incremental Learning [8.438092346233054]
CIL(Class-Incremental Learning)は、非定常データから新しいクラスを継続的に認識するためにモデルを訓練する。
CILの大きな課題は、非一様分布を特徴とする実世界のデータに適用する場合である。
この二重不均衡問題により、FC層に偏りのある勾配更新が生じ、CILの過度/過度な適合と破滅的な忘れが引き起こされる。
論文 参考訳(メタデータ) (2024-02-28T18:08:03Z) - Class-Imbalanced Graph Learning without Class Rebalancing [62.1368829847041]
クラス不均衡は実世界のノード分類タスクでよく見られ、グラフ学習モデルには大きな課題がある。
本研究では、トポロジカルパラダイムからクラス不均衡バイアスの根本原因にアプローチする。
我々は,クラス再バランスを伴わずにクラス不均衡バイアスを軽減するために,軽量なトポロジカル拡張フレームワークであるBATを考案した。
論文 参考訳(メタデータ) (2023-08-27T19:01:29Z) - How To Overcome Confirmation Bias in Semi-Supervised Image
Classification By Active Learning [2.1805442504863506]
実世界のアプリケーションでは、クラス間不均衡、クラス内不均衡、クラス間の類似性という3つの課題を提示する。
ランダムサンプリングは、確認バイアスを軽減せず、場合によっては教師付き学習よりもパフォーマンスが悪くなる。
この結果から,実世界の共通の課題の存在下での,アクティブとセミ教師付き学習の組み合わせの可能性についての知見が得られた。
論文 参考訳(メタデータ) (2023-08-16T08:52:49Z) - An Embarrassingly Simple Baseline for Imbalanced Semi-Supervised
Learning [103.65758569417702]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルのパフォーマンスを向上させるという大きな約束を示している。
我々は、ラベル付きデータとラベルなしデータの両方で不均衡なクラス分散が発生する不均衡SSLという、より現実的で困難な設定について検討する。
我々は、ラベル付きデータを擬似ラベルで単純に補うことで、データの不均衡に取り組む単純なベースライン、SimiSについて研究する。
論文 参考訳(メタデータ) (2022-11-20T21:18:41Z) - Scale-Equivalent Distillation for Semi-Supervised Object Detection [57.59525453301374]
近年のSemi-Supervised Object Detection (SS-OD) 法は主に自己学習に基づいており、教師モデルにより、ラベルなしデータを監視信号としてハードな擬似ラベルを生成する。
実験結果から,これらの手法が直面する課題を分析した。
本稿では,大規模オブジェクトサイズの分散とクラス不均衡に頑健な簡易かつ効果的なエンド・ツー・エンド知識蒸留フレームワークであるSED(Scale-Equivalent Distillation)を提案する。
論文 参考訳(メタデータ) (2022-03-23T07:33:37Z) - Minority Class Oriented Active Learning for Imbalanced Datasets [6.009262446889319]
本研究では,不均衡なデータセットを対象とした新しいアクティブ学習手法を提案する。
これは、ラベル付きサブセットの不均衡を減らすために、マイノリティクラスにある可能性が高いサンプルを好む。
また、アクティブラーニングのための2つのトレーニングスキームを比較した。
論文 参考訳(メタデータ) (2022-02-01T13:13:41Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。