論文の概要: Discrimination and Class Imbalance Aware Online Naive Bayes
- arxiv url: http://arxiv.org/abs/2211.04812v1
- Date: Wed, 9 Nov 2022 11:20:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 17:59:30.105049
- Title: Discrimination and Class Imbalance Aware Online Naive Bayes
- Title(参考訳): オンラインナイーブベイズを意識した差別とクラス不均衡
- Authors: Maryam Badar, Marco Fisichella, Vasileios Iosifidis, Wolfgang Nejdl
- Abstract要約: ストリーム学習アルゴリズムは、人間を重要な意思決定ポイントで置き換えるために使用される。
近年の識別認識学習法は総合的精度に基づいて最適化されている。
本研究では,ストリームに埋め込まれた識別を緩和するために,Na"ive Bayes"の新たな適応を提案する。
- 参考スコア(独自算出の注目度): 5.065947993017157
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness-aware mining of massive data streams is a growing and challenging
concern in the contemporary domain of machine learning. Many stream learning
algorithms are used to replace humans at critical decision-making points e.g.,
hiring staff, assessing credit risk, etc. This calls for handling massive
incoming information with minimum response delay while ensuring fair and high
quality decisions. Recent discrimination-aware learning methods are optimized
based on overall accuracy. However, the overall accuracy is biased in favor of
the majority class; therefore, state-of-the-art methods mainly diminish
discrimination by partially or completely ignoring the minority class. In this
context, we propose a novel adaptation of Na\"ive Bayes to mitigate
discrimination embedded in the streams while maintaining high predictive
performance for both the majority and minority classes. Our proposed algorithm
is simple, fast, and attains multi-objective optimization goals. To handle
class imbalance and concept drifts, a dynamic instance weighting module is
proposed, which gives more importance to recent instances and less importance
to obsolete instances based on their membership in minority or majority class.
We conducted experiments on a range of streaming and static datasets and
deduced that our proposed methodology outperforms existing state-of-the-art
fairness-aware methods in terms of both discrimination score and balanced
accuracy.
- Abstract(参考訳): 巨大なデータストリームの公正なマイニングは、機械学習の現代的領域において、成長し、挑戦的な関心事である。
多くのストリーム学習アルゴリズムは、従業員の雇用、信用リスクの評価など、重要な意思決定ポイントで人間を置き換えるために使用される。
これにより、大量の受信情報を最小限の応答遅延で処理し、公平で高品質な決定を確実にする必要がある。
近年の識別認識学習法は総合的精度に基づいて最適化されている。
しかし、全体的な精度は多数派に偏っているため、最先端の手法は主に少数派を部分的にあるいは完全に無視することで差別を減らしている。
本稿では,ストリームに埋め込まれた識別を緩和し,多数層と少数層の両方に対する高い予測性能を維持するために,na\"ive bayesの新たな適応を提案する。
提案アルゴリズムは単純で高速で,多目的最適化の目標を達成する。
クラスの不均衡と概念のドリフトに対処するために、動的インスタンス重み付けモジュールが提案されている。
ストリーミングおよび静的データセットの多種多様な実験を行い,提案手法が識別スコアとバランスの取れた精度の両面で,既存の公平性認識手法を上回っていることを推察した。
関連論文リスト
- Exploring Vacant Classes in Label-Skewed Federated Learning [113.65301899666645]
クライアント間の局所的なラベル分布の相違を特徴とするラベルスキューは、連合学習において大きな課題となる。
本稿では, ラベルスキュード・フェデレート学習における新しい手法であるFedVLSについて紹介する。
論文 参考訳(メタデータ) (2024-01-04T16:06:31Z) - Adversarial Reweighting Guided by Wasserstein Distance for Bias
Mitigation [24.160692009892088]
データ中のマイノリティの下位表現は、学習中のサブポピュレーションの異なる扱いを困難にしている。
本稿では,このような表現バイアスに対処する新たな逆方向再重み付け手法を提案する。
論文 参考訳(メタデータ) (2023-11-21T15:46:11Z) - Bi-discriminator Domain Adversarial Neural Networks with Class-Level
Gradient Alignment [87.8301166955305]
そこで本研究では,クラスレベルのアライメントアライメントを有するバイディミネータドメイン対向ニューラルネットワークを提案する。
BACGは、領域分布の整合性を改善するために勾配信号と二階確率推定を利用する。
さらに、対照的な学習にインスパイアされ、トレーニングプロセスを大幅に短縮できるメモリバンクベースの変種であるFast-BACGを開発した。
論文 参考訳(メタデータ) (2023-10-21T09:53:17Z) - Imbalanced Classification via Explicit Gradient Learning From Augmented
Data [0.0]
本稿では、与えられた不均衡なデータセットを新しいマイノリティインスタンスに拡張する、新しい深層メタラーニング手法を提案する。
提案手法の利点は, 種々の不均衡比を持つ合成および実世界のデータセット上で実証される。
論文 参考訳(メタデータ) (2022-02-21T22:16:50Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Fairness-aware Class Imbalanced Learning [57.45784950421179]
つぶやきの感情と職業分類のロングテール学習手法を評価する。
フェアネスを強制する手法により、マージンロスに基づくアプローチを拡張します。
論文 参考訳(メタデータ) (2021-09-21T22:16:30Z) - Online Fairness-Aware Learning with Imbalanced Data Streams [9.481178205985396]
ストリーム上で有効かつ公平な分類を行うオンラインフェアネスアウェアアプローチとして,我々の提案する手法を提案する。
ウエーシスは オンライン・ブーピング・アプローチだ トレーニング・ディストリビューションを オンライン・スタイルで変更する ストリームのクラス不均衡を監視して
8つの実世界と1つの合成データセットの実験は、最先端の公正なストリームアプローチよりも、我々の手法が優れていることを示す。
論文 参考訳(メタデータ) (2021-08-13T13:31:42Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fair Meta-Learning For Few-Shot Classification [7.672769260569742]
バイアスデータに基づいてトレーニングされた機械学習アルゴリズムは、不公平な予測を行う傾向がある。
本稿では,メタトレイン中のバイアスを効果的に軽減する,高速適応型数ショットメタラーニング手法を提案する。
提案手法は,モデル出力のバイアスを効果的に軽減し,不明瞭なタスクに対して精度と公平性の両方を一般化することを実証的に実証する。
論文 参考訳(メタデータ) (2020-09-23T22:33:47Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z) - DeBayes: a Bayesian Method for Debiasing Network Embeddings [16.588468396705366]
DeBayes は,偏りの偏った埋め込みを学習できる概念的かつエレガントなベイズ的手法である。
実験の結果、これらの表現は、一般的なメトリクスの観点ではかなり公平なリンク予測を行うのに利用できることがわかった。
論文 参考訳(メタデータ) (2020-02-26T12:57:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。