論文の概要: A Bandit-Based Algorithm for Fairness-Aware Hyperparameter Optimization
- arxiv url: http://arxiv.org/abs/2010.03665v2
- Date: Thu, 22 Oct 2020 16:37:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 22:17:14.953924
- Title: A Bandit-Based Algorithm for Fairness-Aware Hyperparameter Optimization
- Title(参考訳): フェアネスアウェアハイパーパラメータ最適化のためのbanditに基づくアルゴリズム
- Authors: Andr\'e F. Cruz, Pedro Saleiro, Catarina Bel\'em, Carlos Soares, Pedro
Bizarro
- Abstract要約: 本稿では,帯域幅に基づくフェアネス対応ハイパーパラメータ最適化(HO)アルゴリズムであるFairbandを提案する。
HOにフェアネスの概念を導入することで、現実のMLパイプラインへのフェアネス目標のシームレスかつ効率的な統合を可能にします。
この結果から,Fairbandはパラメータ最適化によって効率よくフェアネスと精度のトレードオフをナビゲートできることが示唆された。
- 参考スコア(独自算出の注目度): 5.337302350000984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Considerable research effort has been guided towards algorithmic fairness but
there is still no major breakthrough. In practice, an exhaustive search over
all possible techniques and hyperparameters is needed to find optimal
fairness-accuracy trade-offs. Hence, coupled with the lack of tools for ML
practitioners, real-world adoption of bias reduction methods is still scarce.
To address this, we present Fairband, a bandit-based fairness-aware
hyperparameter optimization (HO) algorithm. Fairband is conceptually simple,
resource-efficient, easy to implement, and agnostic to both the objective
metrics, model types and the hyperparameter space being explored. Moreover, by
introducing fairness notions into HO, we enable seamless and efficient
integration of fairness objectives into real-world ML pipelines. We compare
Fairband with popular HO methods on four real-world decision-making datasets.
We show that Fairband can efficiently navigate the fairness-accuracy trade-off
through hyperparameter optimization. Furthermore, without extra training cost,
it consistently finds configurations attaining substantially improved fairness
at a comparatively small decrease in predictive accuracy.
- Abstract(参考訳): かなりの研究努力がアルゴリズムの公正性に向けて導かれてきたが、まだ大きなブレークスルーはない。
実際には、全ての可能な技術とハイパーパラメータを網羅的に探索し、最適な公平性-正確性トレードオフを見つける必要がある。
したがって、ML実践者のためのツールの欠如と相まって、実際のバイアス低減手法の採用は依然として少ない。
そこで本研究では,バンドイットをベースとするfairness-aware hyperparameter optimization (ho)アルゴリズムであるfairbandを提案する。
fairbandは概念的にはシンプルで、リソース効率が高く、実装が容易で、客観的なメトリクス、モデルタイプ、探索中のハイパーパラメータ空間の両方に依存しない。
さらに、フェアネスの概念をHOに導入することにより、現実のMLパイプラインへのフェアネス目標のシームレスかつ効率的な統合を可能にします。
実世界の4つの意思決定データセット上で,Fairbandと一般的なHO手法を比較した。
ハイパーパラメータ最適化により,fairbandはフェアネス・正確なトレードオフを効率的にナビゲートできることを示す。
さらに、追加のトレーニングコストがかからず、予測精度が比較的小さく、公平性が大幅に向上した構成を一貫して発見する。
関連論文リスト
- Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Learning Regions of Interest for Bayesian Optimization with Adaptive
Level-Set Estimation [84.0621253654014]
本稿では,高信頼領域を適応的にフィルタするBALLETというフレームワークを提案する。
理論的には、BALLETは探索空間を効率的に縮小することができ、標準BOよりも厳密な後悔を示すことができる。
論文 参考訳(メタデータ) (2023-07-25T09:45:47Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fairness-aware Configuration of Machine Learning Libraries [21.416261003364177]
本稿では,機械学習アルゴリズム(ML)のパラメータ空間について検討する。
精度フェアネスフロンティアを明らかにするために,3つの検索ベースソフトウェアテストアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2022-02-13T04:04:33Z) - FARF: A Fair and Adaptive Random Forests Classifier [34.94595588778864]
オンライン設定の進化というより困難な状況下で,公平な意思決定のためのフレキシブルアンサンブルアルゴリズムを提案する。
このアルゴリズムはFARF(Fair and Adaptive Random Forests)と呼ばれ、オンラインコンポーネント分類器を使用して現在の分布に従って更新する。
実世界の識別データストリームの実験はFARFの有用性を実証している。
論文 参考訳(メタデータ) (2021-08-17T02:06:54Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Pareto Efficient Fairness in Supervised Learning: From Extraction to
Tracing [26.704236797908177]
アルゴリズムによる意思決定システムの普及が進んでいる。
測定と精度の本質的にのトレードオフのため、全体的な損失とその他の基準とのトレードオフを確保することが望ましい。
定義に依存しない、つまり、明確に定義された概念を PEF の概念に還元できることを意味する。
論文 参考訳(メタデータ) (2021-04-04T15:49:35Z) - Promoting Fairness through Hyperparameter Optimization [4.479834103607383]
この研究は、現実世界の不正検出アプリケーションの文脈において、従来のMLモデル開発から生じる不公平さを探求する。
本稿では,一般的な3つのhoアルゴリズム,fair random search,fair tpe,fairbandの提案と評価を行う。
我々は、現実の銀行口座の不正使用事例のオープニングと、フェアネス文献からの3つのデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2021-03-23T17:36:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。