論文の概要: Continuous Fair SMOTE -- Fairness-Aware Stream Learning from Imbalanced Data
- arxiv url: http://arxiv.org/abs/2505.13116v1
- Date: Mon, 19 May 2025 13:46:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.624798
- Title: Continuous Fair SMOTE -- Fairness-Aware Stream Learning from Imbalanced Data
- Title(参考訳): 連続フェアSMOTE-不均衡データによる公正なストリーム学習
- Authors: Kathrin Lammers, Valerie Vaquet, Barbara Hammer,
- Abstract要約: フェアネスを意識した連続SMOTE変種としてCFSMOTEを提案する。
他のフェアネス対応ストリーム学習者とは異なり、CFSMOTEは特定のフェアネスメトリックのみを最適化していない。
実験の結果,バニラC-SMOTEと比較して,グループフェアネスの指標が有意な改善を示した。
- 参考スコア(独自算出の注目度): 4.248022697109535
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning is increasingly applied in an online fashion to deal with evolving data streams, the fairness of these algorithms is a matter of growing ethical and legal concern. In many use cases, class imbalance in the data also needs to be dealt with to ensure predictive performance. Current fairness-aware stream learners typically attempt to solve these issues through in- or post-processing by focusing on optimizing one specific discrimination metric, addressing class imbalance in a separate processing step. While C-SMOTE is a highly effective model-agnostic pre-processing approach to mitigate class imbalance, as a side effect of this method, algorithmic bias is often introduced. Therefore, we propose CFSMOTE - a fairness-aware, continuous SMOTE variant - as a pre-processing approach to simultaneously address the class imbalance and fairness concerns by employing situation testing and balancing fairness-relevant groups during oversampling. Unlike other fairness-aware stream learners, CFSMOTE is not optimizing for only one specific fairness metric, therefore avoiding potentially problematic trade-offs. Our experiments show significant improvement on several common group fairness metrics in comparison to vanilla C-SMOTE while maintaining competitive performance, also in comparison to other fairness-aware algorithms.
- Abstract(参考訳): 機械学習は、進化するデータストリームを扱うために、ますますオンラインの方法で適用されているので、これらのアルゴリズムの公平性は、倫理的および法的懸念の高まりの問題である。
多くのユースケースでは、予測性能を保証するために、データのクラス不均衡も対処する必要があります。
現在の公正なストリーム学習者は、通常、内部または後処理によって、ある特定の識別基準を最適化することに集中し、別の処理ステップでクラス不均衡に対処することによって、これらの問題を解決しようとする。
C-SMOTEは、クラス不均衡を軽減するために、非常に効果的なモデルに依存しない事前処理手法であるが、この手法の副作用としてアルゴリズムバイアスがしばしば導入される。
そこで本稿では,クラス不均衡と公平性の問題に対処する前処理手法として,オーバーサンプリング中の状況テストとフェアネス関連グループのバランスをとることで,クラス不均衡とフェアネス問題に対処するCFSMOTEを提案する。
他のフェアネス対応ストリーム学習者とは異なり、CFSMOTEは特定のフェアネス基準のみを最適化していないため、潜在的なトレードオフを避けることができる。
本実験は,バニラC-SMOTEと比較して,他のフェアネス認識アルゴリズムと比較して,競争性能を保ちながら,いくつかの共通グループフェアネス指標に有意な改善が認められた。
関連論文リスト
- Preventing Discriminatory Decision-making in Evolving Data Streams [8.952662914331901]
機械学習のバイアスは、ここ10年で明らかに注目を集めている。
意思決定システムのバイアスに対処する最も公正な機械学習(fair-ML)は、オフライン設定のみに焦点を当てている。
オンラインシステムが現実世界で広く普及しているにもかかわらず、オンライン設定におけるバイアスを特定し修正する作業は極めて不十分である。
論文 参考訳(メタデータ) (2023-02-16T01:20:08Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - Online Fairness-Aware Learning with Imbalanced Data Streams [9.481178205985396]
ストリーム上で有効かつ公平な分類を行うオンラインフェアネスアウェアアプローチとして,我々の提案する手法を提案する。
ウエーシスは オンライン・ブーピング・アプローチだ トレーニング・ディストリビューションを オンライン・スタイルで変更する ストリームのクラス不均衡を監視して
8つの実世界と1つの合成データセットの実験は、最先端の公正なストリームアプローチよりも、我々の手法が優れていることを示す。
論文 参考訳(メタデータ) (2021-08-13T13:31:42Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。