論文の概要: Fairness-aware Configuration of Machine Learning Libraries
- arxiv url: http://arxiv.org/abs/2202.06196v1
- Date: Sun, 13 Feb 2022 04:04:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 18:22:18.364091
- Title: Fairness-aware Configuration of Machine Learning Libraries
- Title(参考訳): 機械学習ライブラリの公平性を考慮した構成
- Authors: Saeid Tizpaz-Niari and Ashish Kumar and Gang Tan and Ashutosh Trivedi
- Abstract要約: 本稿では,機械学習アルゴリズム(ML)のパラメータ空間について検討する。
精度フェアネスフロンティアを明らかにするために,3つの検索ベースソフトウェアテストアルゴリズムが提案されている。
- 参考スコア(独自算出の注目度): 21.416261003364177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates the parameter space of machine learning (ML)
algorithms in aggravating or mitigating fairness bugs. Data-driven software is
increasingly applied in social-critical applications where ensuring fairness is
of paramount importance. The existing approaches focus on addressing fairness
bugs by either modifying the input dataset or modifying the learning
algorithms. On the other hand, the selection of hyperparameters, which provide
finer controls of ML algorithms, may enable a less intrusive approach to
influence the fairness. Can hyperparameters amplify or suppress discrimination
present in the input dataset? How can we help programmers in detecting,
understanding, and exploiting the role of hyperparameters to improve the
fairness?
We design three search-based software testing algorithms to uncover the
precision-fairness frontier of the hyperparameter space. We complement these
algorithms with statistical debugging to explain the role of these parameters
in improving fairness. We implement the proposed approaches in the tool
Parfait-ML (PARameter FAIrness Testing for ML Libraries) and show its
effectiveness and utility over five mature ML algorithms as used in six
social-critical applications. In these applications, our approach successfully
identified hyperparameters that significantly improve (vis-a-vis the
state-of-the-art techniques) the fairness without sacrificing precision.
Surprisingly, for some algorithms (e.g., random forest), our approach showed
that certain configuration of hyperparameters (e.g., restricting the search
space of attributes) can amplify biases across applications. Upon further
investigation, we found intuitive explanations of these phenomena, and the
results corroborate similar observations from the literature.
- Abstract(参考訳): 本稿では,機械学習(ml)アルゴリズムのフェアネスバグの悪化や軽減におけるパラメータ空間について検討する。
データ駆動ソフトウェアは、公平性を保証することが最重要となる社会クリティカルなアプリケーションでますます使われています。
既存のアプローチでは、入力データセットを変更したり、学習アルゴリズムを変更したりすることで、公正なバグに対処することに重点を置いている。
一方、mlアルゴリズムの微妙な制御を提供するハイパーパラメータの選択は、公平性に影響を与える侵入的アプローチを少なくする可能性がある。
ハイパーパラメータは、入力データセットに存在する差別を増幅または抑制できるか?
プログラマがハイパーパラメータの役割を検知し、理解し、活用し、公平性を改善するのにどのように役立つか?
我々は,ハイパーパラメータ空間の精密度フロンティアを明らかにするために,探索に基づく3つのソフトウェアテストアルゴリズムを設計する。
これらのアルゴリズムを統計的デバッグで補完し,公平性向上におけるパラメータの役割を説明する。
提案手法をParfait-ML (Parameter FAIrness Testing for ML Libraries) に実装し、6つのソーシャルクリティカルアプリケーションで使用される5つの成熟MLアルゴリズムの有効性と有用性を示す。
これらの応用では, 精度を犠牲にすることなく, 精度を著しく向上するハイパーパラメータ(最先端技術)の同定に成功した。
驚くべきことに、いくつかのアルゴリズム(例えばランダムフォレスト)では、ハイパーパラメータの特定の構成(例えば属性の探索空間を制限する)がアプリケーション間のバイアスを増幅できることを示した。
さらなる調査の結果,これらの現象の直感的な説明が得られ,文献からも同様の観察結果が得られた。
関連論文リスト
- Masked Thought: Simply Masking Partial Reasoning Steps Can Improve
Mathematical Reasoning Learning of Language Models [106.59263704052206]
推論タスクでは、小さなエラーでも不正確な結果にカスケードすることができる。
入力の摂動に代えて,外部リソースを回避する手法を開発した。
私たちのトレーニングアプローチは、思考の連鎖内の特定のトークンをランダムに隠蔽します。
論文 参考訳(メタデータ) (2024-03-04T16:21:54Z) - Robust Analysis of Multi-Task Learning on a Complex Vision System [73.65915899030895]
マルチタスク学習(MTL)は過去10年間に広く研究されてきた。
複雑な実世界のシナリオにおけるパフォーマンスについて、まだ深く理解されていない。
論文 参考訳(メタデータ) (2024-02-05T22:15:55Z) - Hyperparameter Estimation for Sparse Bayesian Learning Models [1.0172874946490507]
Aparse Bayesian Learning (SBL) モデルは、信号処理や機械学習において、階層的な事前処理による疎結合を促進するために広く使われている。
本稿では,種々の目的関数に対するSBLモデルの改良のためのフレームワークを提案する。
信号雑音比において, 高い効率性を示す新しいアルゴリズムが導入された。
論文 参考訳(メタデータ) (2024-01-04T21:24:01Z) - Robustness of Algorithms for Causal Structure Learning to Hyperparameter
Choice [2.3020018305241337]
ハイパーパラメータチューニングは、どんなアルゴリズムでも最先端と予測性能の低さを区別することができる。
本稿では,ハイパーパラメータ選択が因果構造学習タスクに及ぼす影響について検討する。
論文 参考訳(メタデータ) (2023-10-27T15:34:08Z) - Interactive Hyperparameter Optimization in Multi-Objective Problems via
Preference Learning [65.51668094117802]
我々は多目的機械学習(ML)に適した人間中心型対話型HPO手法を提案する。
ユーザが自分のニーズに最も適した指標を推測する代わりに、私たちのアプローチは自動的に適切な指標を学習します。
論文 参考訳(メタデータ) (2023-09-07T09:22:05Z) - FAIRLEARN:Configurable and Interpretable Algorithmic Fairness [1.2183405753834557]
トレーニングサンプルから生じるバイアスや、データサンプルに関する暗黙の仮定を緩和する必要がある。
最適化の異なる段階でバイアスを検出し緩和することで、学習アルゴリズムを公平にするために多くのアプローチが提案されている。
本稿では,ユーザの制約を最適化手順に組み込むことで,公平なアルゴリズムを生成するFAIRLEARN手順を提案する。
論文 参考訳(メタデータ) (2021-11-17T03:07:18Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Individually Fair Gradient Boosting [86.1984206610373]
我々は、グラデーションブーストにおいて個人の公平性を強制するタスクを検討する。
アルゴリズムがグローバルに収束し、一般化することを示す。
また,アルゴリズムバイアスの影響を受けやすい3つのml問題に対するアルゴリズムの有効性を示す。
論文 参考訳(メタデータ) (2021-03-31T03:06:57Z) - A Bandit-Based Algorithm for Fairness-Aware Hyperparameter Optimization [5.337302350000984]
本稿では,帯域幅に基づくフェアネス対応ハイパーパラメータ最適化(HO)アルゴリズムであるFairbandを提案する。
HOにフェアネスの概念を導入することで、現実のMLパイプラインへのフェアネス目標のシームレスかつ効率的な統合を可能にします。
この結果から,Fairbandはパラメータ最適化によって効率よくフェアネスと精度のトレードオフをナビゲートできることが示唆された。
論文 参考訳(メタデータ) (2020-10-07T21:35:16Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Online Hyperparameter Search Interleaved with Proximal Parameter Updates [9.543667840503739]
本研究では,近似勾配法の構造に依存する手法を開発し,スムーズなコスト関数を必要としない。
そのような方法は、Leave-one-out (LOO)-validated LassoおよびGroup Lassoに適用される。
数値実験により,提案手法の収束度をLOO検証誤差曲線の局所最適値に相関させる。
論文 参考訳(メタデータ) (2020-04-06T15:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。