論文の概要: Class Imbalance in Anomaly Detection: Learning from an Exactly Solvable Model
- arxiv url: http://arxiv.org/abs/2501.11638v1
- Date: Mon, 20 Jan 2025 18:12:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:24:10.783384
- Title: Class Imbalance in Anomaly Detection: Learning from an Exactly Solvable Model
- Title(参考訳): 異常検出におけるクラス不均衡--厳密な解法モデルから学ぶ
- Authors: F. S. Pezzicoli, V. Ros, F. P. Landes, M. Baity-Jesi,
- Abstract要約: クラス不均衡(CI)は、機械学習における長年の問題であり、トレーニングを遅くし、パフォーマンスを低下させる。
CIを分析し、解釈し、対処するための理論的フレームワークを提供する。
このフレームワーク内では、固有の、トレーニングまたはテストの不均衡という、CIの複数のソースを区別することができる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Class imbalance (CI) is a longstanding problem in machine learning, slowing down training and reducing performances. Although empirical remedies exist, it is often unclear which ones work best and when, due to the lack of an overarching theory. We address a common case of imbalance, that of anomaly (or outlier) detection. We provide a theoretical framework to analyze, interpret and address CI. It is based on an exact solution of the teacher-student perceptron model, through replica theory. Within this framework, one can distinguish several sources of CI: either intrinsic, train or test imbalance. Our analysis reveals that the optimal train imbalance is generally different from 50%, with a non trivial dependence on the intrinsic imbalance, the abundance of data and on the noise in the learning. Moreover, there is a crossover between a small noise training regime where results are independent of the noise level to a high noise regime where performances quickly degrade with noise. Our results challenge some of the conventional wisdom on CI and offer practical guidelines to address it.
- Abstract(参考訳): クラス不均衡(CI)は、機械学習における長年の問題であり、トレーニングを遅くし、パフォーマンスを低下させる。
実証的な治療法は存在するが、大まかな理論が欠如しているため、どちらが最もうまく機能するか、いつどのように機能するかはよく分かっていない。
我々は異常(または異常)検出の一般的な不均衡の症例に対処する。
CIを分析し、解釈し、対処するための理論的フレームワークを提供する。
これは、複製理論を通じて教師と学生のパーセプトロンモデルの正確な解に基づいている。
このフレームワーク内では、固有の、トレーニングまたはテストの不均衡という、CIの複数のソースを区別することができる。
分析の結果, 列車不均衡は, 内在的不均衡, データの豊富さ, 学習中の雑音に非自明な依存を伴って, 50%と概ね異なることがわかった。
さらに、ノイズレベルに依存しない小さなノイズトレーニング体制と、ノイズを伴うパフォーマンスが急速に低下するハイノイズレシエーションとの間には、クロスオーバーがある。
私たちの結果は、CIに関する従来の知恵のいくつかに挑戦し、それに取り組むための実践的なガイドラインを提供します。
関連論文リスト
- Conformal-in-the-Loop for Learning with Imbalanced Noisy Data [5.69777817429044]
大規模なデータセットでは、クラス不均衡とラベルノイズが広まっています。
機械学習の研究の多くは、よくラベル付けされたバランスの取れたデータを前提としている。
コンフォーマル・イン・ザ・ループ(Conformal-in-the-Loop, CitL)は,コンフォーマルな予測に基づく手法を用いて,両課題に対処する新しいトレーニングフレームワークである。
論文 参考訳(メタデータ) (2024-11-04T17:09:58Z) - Class-Imbalanced Graph Learning without Class Rebalancing [62.1368829847041]
クラス不均衡は実世界のノード分類タスクでよく見られ、グラフ学習モデルには大きな課題がある。
本研究では、トポロジカルパラダイムからクラス不均衡バイアスの根本原因にアプローチする。
我々は,クラス再バランスを伴わずにクラス不均衡バイアスを軽減するために,軽量なトポロジカル拡張フレームワークであるBATを考案した。
論文 参考訳(メタデータ) (2023-08-27T19:01:29Z) - Learning Provably Robust Estimators for Inverse Problems via Jittering [51.467236126126366]
簡単な正規化手法であるジッタリングが,逆問題に対する最悪ケース頑健な推定器の学習に有効かどうかを検討する。
ジッタリングは最悪の場合のロバスト性を大幅に向上させるが,デノイング以上の逆問題に最適であることを示す。
論文 参考訳(メタデータ) (2023-07-24T14:19:36Z) - Rethinking Class Imbalance in Machine Learning [1.4467794332678536]
不均衡学習は、クラス不均衡の存在下での学習タスクに焦点を当てた機械学習のサブフィールドである。
本研究では,機械学習におけるクラス不均衡の新しい分類法を提案する。
比例, 分散, 距離不均衡が同時に存在する場合に, 対数摂動に基づく新たな不均衡学習損失を提案する。
論文 参考訳(メタデータ) (2023-05-06T02:36:39Z) - Identifying Hard Noise in Long-Tailed Sample Distribution [76.16113794808001]
NLT(Noisy Long-Tailed Classification)を紹介する。
ほとんどのノイズ除去法は、ハードノイズを特定するのに失敗する。
我々はH2E(Hard-to-Easy)と呼ばれる反復的な雑音学習フレームワークを設計する。
論文 参考訳(メタデータ) (2022-07-27T09:03:03Z) - Neural Collapse Inspired Attraction-Repulsion-Balanced Loss for
Imbalanced Learning [97.81549071978789]
勾配の異なる成分のバランスをとるために,Attraction-Repulsion-Balanced Loss (ARB-Loss)を提案する。
大規模分類とセグメンテーションデータセットの実験を行い、ARB-Lossは最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-04-19T08:23:23Z) - The Optimal Noise in Noise-Contrastive Learning Is Not What You Think [80.07065346699005]
この仮定から逸脱すると、実際により良い統計的推定結果が得られることが示される。
特に、最適な雑音分布は、データと異なり、また、別の家族からさえも異なる。
論文 参考訳(メタデータ) (2022-03-02T13:59:20Z) - Learning From Long-Tailed Data With Noisy Labels [0.0]
クラス不均衡とノイズラベルは多くの大規模分類データセットの標準である。
本稿では,近年の自己教師型学習の進歩をもとに,簡単な2段階のアプローチを提案する。
自己指導型学習アプローチは,重度のクラス不均衡に効果的に対処できることが判明した。
論文 参考訳(メタデータ) (2021-08-25T07:45:40Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。