論文の概要: Fairness-aware Configuration of Machine Learning Libraries
- arxiv url: http://arxiv.org/abs/2202.06196v1
- Date: Sun, 13 Feb 2022 04:04:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 18:22:18.364091
- Title: Fairness-aware Configuration of Machine Learning Libraries
- Title(参考訳): 機械学習ライブラリの公平性を考慮した構成
- Authors: Saeid Tizpaz-Niari and Ashish Kumar and Gang Tan and Ashutosh Trivedi
- Abstract要約: 本稿では,機械学習アルゴリズム(ML)のパラメータ空間について検討する。
精度フェアネスフロンティアを明らかにするために,3つの検索ベースソフトウェアテストアルゴリズムが提案されている。
- 参考スコア(独自算出の注目度): 21.416261003364177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates the parameter space of machine learning (ML)
algorithms in aggravating or mitigating fairness bugs. Data-driven software is
increasingly applied in social-critical applications where ensuring fairness is
of paramount importance. The existing approaches focus on addressing fairness
bugs by either modifying the input dataset or modifying the learning
algorithms. On the other hand, the selection of hyperparameters, which provide
finer controls of ML algorithms, may enable a less intrusive approach to
influence the fairness. Can hyperparameters amplify or suppress discrimination
present in the input dataset? How can we help programmers in detecting,
understanding, and exploiting the role of hyperparameters to improve the
fairness?
We design three search-based software testing algorithms to uncover the
precision-fairness frontier of the hyperparameter space. We complement these
algorithms with statistical debugging to explain the role of these parameters
in improving fairness. We implement the proposed approaches in the tool
Parfait-ML (PARameter FAIrness Testing for ML Libraries) and show its
effectiveness and utility over five mature ML algorithms as used in six
social-critical applications. In these applications, our approach successfully
identified hyperparameters that significantly improve (vis-a-vis the
state-of-the-art techniques) the fairness without sacrificing precision.
Surprisingly, for some algorithms (e.g., random forest), our approach showed
that certain configuration of hyperparameters (e.g., restricting the search
space of attributes) can amplify biases across applications. Upon further
investigation, we found intuitive explanations of these phenomena, and the
results corroborate similar observations from the literature.
- Abstract(参考訳): 本稿では,機械学習(ml)アルゴリズムのフェアネスバグの悪化や軽減におけるパラメータ空間について検討する。
データ駆動ソフトウェアは、公平性を保証することが最重要となる社会クリティカルなアプリケーションでますます使われています。
既存のアプローチでは、入力データセットを変更したり、学習アルゴリズムを変更したりすることで、公正なバグに対処することに重点を置いている。
一方、mlアルゴリズムの微妙な制御を提供するハイパーパラメータの選択は、公平性に影響を与える侵入的アプローチを少なくする可能性がある。
ハイパーパラメータは、入力データセットに存在する差別を増幅または抑制できるか?
プログラマがハイパーパラメータの役割を検知し、理解し、活用し、公平性を改善するのにどのように役立つか?
我々は,ハイパーパラメータ空間の精密度フロンティアを明らかにするために,探索に基づく3つのソフトウェアテストアルゴリズムを設計する。
これらのアルゴリズムを統計的デバッグで補完し,公平性向上におけるパラメータの役割を説明する。
提案手法をParfait-ML (Parameter FAIrness Testing for ML Libraries) に実装し、6つのソーシャルクリティカルアプリケーションで使用される5つの成熟MLアルゴリズムの有効性と有用性を示す。
これらの応用では, 精度を犠牲にすることなく, 精度を著しく向上するハイパーパラメータ(最先端技術)の同定に成功した。
驚くべきことに、いくつかのアルゴリズム(例えばランダムフォレスト)では、ハイパーパラメータの特定の構成(例えば属性の探索空間を制限する)がアプリケーション間のバイアスを増幅できることを示した。
さらなる調査の結果,これらの現象の直感的な説明が得られ,文献からも同様の観察結果が得られた。
関連論文リスト
- Fairness Through Controlled (Un)Awareness in Node Embeddings [4.818571559544213]
EmphCrossWalkアルゴリズムのパラメトリゼーションがノード埋め込みから機密属性を推測する能力にどのように影響するかを示す。
この機能は、グラフ埋め込みを利用したMLシステムの公正性を改善するための貴重なツールを提供する。
論文 参考訳(メタデータ) (2024-07-29T14:01:26Z) - Masked Thought: Simply Masking Partial Reasoning Steps Can Improve Mathematical Reasoning Learning of Language Models [102.72940700598055]
推論タスクでは、小さなエラーでも不正確な結果にカスケードすることができる。
入力の摂動に頼らず、外部リソースの導入を避ける手法を開発した。
私たちのトレーニングアプローチでは、思考の連鎖の中で特定のトークンをランダムにマスクします。
論文 参考訳(メタデータ) (2024-03-04T16:21:54Z) - Robustness of Algorithms for Causal Structure Learning to Hyperparameter
Choice [2.3020018305241337]
ハイパーパラメータチューニングは、どんなアルゴリズムでも最先端と予測性能の低さを区別することができる。
本稿では,ハイパーパラメータ選択が因果構造学習タスクに及ぼす影響について検討する。
論文 参考訳(メタデータ) (2023-10-27T15:34:08Z) - Interactive Hyperparameter Optimization in Multi-Objective Problems via
Preference Learning [65.51668094117802]
我々は多目的機械学習(ML)に適した人間中心型対話型HPO手法を提案する。
ユーザが自分のニーズに最も適した指標を推測する代わりに、私たちのアプローチは自動的に適切な指標を学習します。
論文 参考訳(メタデータ) (2023-09-07T09:22:05Z) - Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - FAIRLEARN:Configurable and Interpretable Algorithmic Fairness [1.2183405753834557]
トレーニングサンプルから生じるバイアスや、データサンプルに関する暗黙の仮定を緩和する必要がある。
最適化の異なる段階でバイアスを検出し緩和することで、学習アルゴリズムを公平にするために多くのアプローチが提案されている。
本稿では,ユーザの制約を最適化手順に組み込むことで,公平なアルゴリズムを生成するFAIRLEARN手順を提案する。
論文 参考訳(メタデータ) (2021-11-17T03:07:18Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Individually Fair Gradient Boosting [86.1984206610373]
我々は、グラデーションブーストにおいて個人の公平性を強制するタスクを検討する。
アルゴリズムがグローバルに収束し、一般化することを示す。
また,アルゴリズムバイアスの影響を受けやすい3つのml問題に対するアルゴリズムの有効性を示す。
論文 参考訳(メタデータ) (2021-03-31T03:06:57Z) - A Bandit-Based Algorithm for Fairness-Aware Hyperparameter Optimization [5.337302350000984]
本稿では,帯域幅に基づくフェアネス対応ハイパーパラメータ最適化(HO)アルゴリズムであるFairbandを提案する。
HOにフェアネスの概念を導入することで、現実のMLパイプラインへのフェアネス目標のシームレスかつ効率的な統合を可能にします。
この結果から,Fairbandはパラメータ最適化によって効率よくフェアネスと精度のトレードオフをナビゲートできることが示唆された。
論文 参考訳(メタデータ) (2020-10-07T21:35:16Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Online Hyperparameter Search Interleaved with Proximal Parameter Updates [9.543667840503739]
本研究では,近似勾配法の構造に依存する手法を開発し,スムーズなコスト関数を必要としない。
そのような方法は、Leave-one-out (LOO)-validated LassoおよびGroup Lassoに適用される。
数値実験により,提案手法の収束度をLOO検証誤差曲線の局所最適値に相関させる。
論文 参考訳(メタデータ) (2020-04-06T15:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。