論文の概要: Preventing Discriminatory Decision-making in Evolving Data Streams
- arxiv url: http://arxiv.org/abs/2302.08017v1
- Date: Thu, 16 Feb 2023 01:20:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 15:19:19.230893
- Title: Preventing Discriminatory Decision-making in Evolving Data Streams
- Title(参考訳): 進化するデータストリームにおける差別的意思決定の防止
- Authors: Zichong Wang, Nripsuta Saxena, Tongjia Yu, Sneha Karki, Tyler Zetty,
Israat Haque, Shan Zhou, Dukka Kc, Ian Stockwell, Albert Bifet and Wenbin
Zhang
- Abstract要約: 機械学習のバイアスは、ここ10年で明らかに注目を集めている。
意思決定システムのバイアスに対処する最も公正な機械学習(fair-ML)は、オフライン設定のみに焦点を当てている。
オンラインシステムが現実世界で広く普及しているにもかかわらず、オンライン設定におけるバイアスを特定し修正する作業は極めて不十分である。
- 参考スコア(独自算出の注目度): 8.952662914331901
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Bias in machine learning has rightly received significant attention over the
last decade. However, most fair machine learning (fair-ML) work to address bias
in decision-making systems has focused solely on the offline setting. Despite
the wide prevalence of online systems in the real world, work on identifying
and correcting bias in the online setting is severely lacking. The unique
challenges of the online environment make addressing bias more difficult than
in the offline setting. First, Streaming Machine Learning (SML) algorithms must
deal with the constantly evolving real-time data stream. Second, they need to
adapt to changing data distributions (concept drift) to make accurate
predictions on new incoming data. Adding fairness constraints to this already
complicated task is not straightforward. In this work, we focus on the
challenges of achieving fairness in biased data streams while accounting for
the presence of concept drift, accessing one sample at a time. We present Fair
Sampling over Stream ($FS^2$), a novel fair rebalancing approach capable of
being integrated with SML classification algorithms. Furthermore, we devise the
first unified performance-fairness metric, Fairness Bonded Utility (FBU), to
evaluate and compare the trade-off between performance and fairness of
different bias mitigation methods efficiently. FBU simplifies the comparison of
fairness-performance trade-offs of multiple techniques through one unified and
intuitive evaluation, allowing model designers to easily choose a technique.
Overall, extensive evaluations show our measures surpass those of other fair
online techniques previously reported in the literature.
- Abstract(参考訳): 機械学習のバイアスは、ここ10年で明らかに注目を集めている。
しかし、意思決定システムのバイアスに対処するために、ほとんどの公正な機械学習(フェアML)は、オフライン設定のみに焦点を当てている。
現実世界におけるオンラインシステムの普及にもかかわらず、オンライン環境におけるバイアスを特定し修正する作業は極めて不足している。
オンライン環境のユニークな課題は、オフライン環境よりもバイアスの対処を難しくする。
まず、ストリーミング機械学習(SML)アルゴリズムは、常に進化するリアルタイムデータストリームを扱う必要がある。
次に、新しい受信データに対して正確な予測を行うために、データ分散の変化(コンセプトドリフト)に適応する必要があります。
この複雑なタスクに公平性制約を加えるのは簡単ではありません。
本研究では,概念ドリフトの存在を考慮しつつ,バイアスデータストリームの公平性を実現する上での課題に着目し,一度に1つのサンプルにアクセスする。
本稿では,SML分類アルゴリズムと統合可能な新しいフェアリバランス手法であるFair Smpling over Stream(FS^2$)を提案する。
さらに,fbu(unified performance-fairness metric, fairness bonded utility)を考案し,異なるバイアス緩和法の性能と公正性のトレードオフを効率的に評価・比較する。
FBUは、統一的かつ直感的な評価により、複数のテクニックの公平性とパフォーマンスのトレードオフの比較を単純化し、モデル設計者が容易にテクニックを選択できるようにする。
これまでに文献で報告された他の公正なオンライン手法を網羅した評価を行った。
関連論文リスト
- ABCFair: an Adaptable Benchmark approach for Comparing Fairness Methods [12.774108753281809]
実世界の問題設定のデシラタに適応できるベンチマーク手法であるABCFairを紹介する。
我々はABCFairを、大規模、伝統的両方のデータセットとデュアルラベル(バイアス付き、バイアスなし)データセットの両方で事前、内、および後処理の手法に適用する。
論文 参考訳(メタデータ) (2024-09-25T14:26:07Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - AIM: Attributing, Interpreting, Mitigating Data Unfairness [40.351282126410545]
既存の公正機械学習(FairML)の研究は、モデル予測における差別バイアスの軽減に重点を置いている。
トレーニングデータからバイアスや偏見を反映したサンプルの発見という,新たな研究課題について検討する。
サンプルバイアスの測定と対策のための実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-13T05:21:10Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - Fairness-Aware Online Meta-learning [9.513605738438047]
本稿では,不公平防止の設定の下で,新しいオンラインメタ学習アルゴリズムFFMLを提案する。
実世界の3つのデータセットの分類にFFMLを適用することで,FFMLの汎用性を実証した。
論文 参考訳(メタデータ) (2021-08-21T04:36:40Z) - FARF: A Fair and Adaptive Random Forests Classifier [34.94595588778864]
オンライン設定の進化というより困難な状況下で,公平な意思決定のためのフレキシブルアンサンブルアルゴリズムを提案する。
このアルゴリズムはFARF(Fair and Adaptive Random Forests)と呼ばれ、オンラインコンポーネント分類器を使用して現在の分布に従って更新する。
実世界の識別データストリームの実験はFARFの有用性を実証している。
論文 参考訳(メタデータ) (2021-08-17T02:06:54Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。