論文の概要: Preventing Discriminatory Decision-making in Evolving Data Streams
- arxiv url: http://arxiv.org/abs/2302.08017v1
- Date: Thu, 16 Feb 2023 01:20:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 15:19:19.230893
- Title: Preventing Discriminatory Decision-making in Evolving Data Streams
- Title(参考訳): 進化するデータストリームにおける差別的意思決定の防止
- Authors: Zichong Wang, Nripsuta Saxena, Tongjia Yu, Sneha Karki, Tyler Zetty,
Israat Haque, Shan Zhou, Dukka Kc, Ian Stockwell, Albert Bifet and Wenbin
Zhang
- Abstract要約: 機械学習のバイアスは、ここ10年で明らかに注目を集めている。
意思決定システムのバイアスに対処する最も公正な機械学習(fair-ML)は、オフライン設定のみに焦点を当てている。
オンラインシステムが現実世界で広く普及しているにもかかわらず、オンライン設定におけるバイアスを特定し修正する作業は極めて不十分である。
- 参考スコア(独自算出の注目度): 8.952662914331901
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Bias in machine learning has rightly received significant attention over the
last decade. However, most fair machine learning (fair-ML) work to address bias
in decision-making systems has focused solely on the offline setting. Despite
the wide prevalence of online systems in the real world, work on identifying
and correcting bias in the online setting is severely lacking. The unique
challenges of the online environment make addressing bias more difficult than
in the offline setting. First, Streaming Machine Learning (SML) algorithms must
deal with the constantly evolving real-time data stream. Second, they need to
adapt to changing data distributions (concept drift) to make accurate
predictions on new incoming data. Adding fairness constraints to this already
complicated task is not straightforward. In this work, we focus on the
challenges of achieving fairness in biased data streams while accounting for
the presence of concept drift, accessing one sample at a time. We present Fair
Sampling over Stream ($FS^2$), a novel fair rebalancing approach capable of
being integrated with SML classification algorithms. Furthermore, we devise the
first unified performance-fairness metric, Fairness Bonded Utility (FBU), to
evaluate and compare the trade-off between performance and fairness of
different bias mitigation methods efficiently. FBU simplifies the comparison of
fairness-performance trade-offs of multiple techniques through one unified and
intuitive evaluation, allowing model designers to easily choose a technique.
Overall, extensive evaluations show our measures surpass those of other fair
online techniques previously reported in the literature.
- Abstract(参考訳): 機械学習のバイアスは、ここ10年で明らかに注目を集めている。
しかし、意思決定システムのバイアスに対処するために、ほとんどの公正な機械学習(フェアML)は、オフライン設定のみに焦点を当てている。
現実世界におけるオンラインシステムの普及にもかかわらず、オンライン環境におけるバイアスを特定し修正する作業は極めて不足している。
オンライン環境のユニークな課題は、オフライン環境よりもバイアスの対処を難しくする。
まず、ストリーミング機械学習(SML)アルゴリズムは、常に進化するリアルタイムデータストリームを扱う必要がある。
次に、新しい受信データに対して正確な予測を行うために、データ分散の変化(コンセプトドリフト)に適応する必要があります。
この複雑なタスクに公平性制約を加えるのは簡単ではありません。
本研究では,概念ドリフトの存在を考慮しつつ,バイアスデータストリームの公平性を実現する上での課題に着目し,一度に1つのサンプルにアクセスする。
本稿では,SML分類アルゴリズムと統合可能な新しいフェアリバランス手法であるFair Smpling over Stream(FS^2$)を提案する。
さらに,fbu(unified performance-fairness metric, fairness bonded utility)を考案し,異なるバイアス緩和法の性能と公正性のトレードオフを効率的に評価・比較する。
FBUは、統一的かつ直感的な評価により、複数のテクニックの公平性とパフォーマンスのトレードオフの比較を単純化し、モデル設計者が容易にテクニックを選択できるようにする。
これまでに文献で報告された他の公正なオンライン手法を網羅した評価を行った。
関連論文リスト
- AIM: Attributing, Interpreting, Mitigating Data Unfairness [40.351282126410545]
既存の公正機械学習(FairML)の研究は、モデル予測における差別バイアスの軽減に重点を置いている。
トレーニングデータからバイアスや偏見を反映したサンプルの発見という,新たな研究課題について検討する。
サンプルバイアスの測定と対策のための実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-13T05:21:10Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in
Regression Machine Learning Problems [0.0]
回帰問題における不公平さの影響を最小限に抑えるため, 正規化(FaiReg)に基づく簡易かつ効果的な手法を提案する。
本手法を,データバランシングと対向訓練という,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減し、また、元の問題の性能を低下させることなく、優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - Fairness-Aware Online Meta-learning [9.513605738438047]
本稿では,不公平防止の設定の下で,新しいオンラインメタ学習アルゴリズムFFMLを提案する。
実世界の3つのデータセットの分類にFFMLを適用することで,FFMLの汎用性を実証した。
論文 参考訳(メタデータ) (2021-08-21T04:36:40Z) - FARF: A Fair and Adaptive Random Forests Classifier [34.94595588778864]
オンライン設定の進化というより困難な状況下で,公平な意思決定のためのフレキシブルアンサンブルアルゴリズムを提案する。
このアルゴリズムはFARF(Fair and Adaptive Random Forests)と呼ばれ、オンラインコンポーネント分類器を使用して現在の分布に従って更新する。
実世界の識別データストリームの実験はFARFの有用性を実証している。
論文 参考訳(メタデータ) (2021-08-17T02:06:54Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。