論文の概要: Fairness-aware Configuration of Machine Learning Libraries
- arxiv url: http://arxiv.org/abs/2202.06196v1
- Date: Sun, 13 Feb 2022 04:04:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 18:22:18.364091
- Title: Fairness-aware Configuration of Machine Learning Libraries
- Title(参考訳): 機械学習ライブラリの公平性を考慮した構成
- Authors: Saeid Tizpaz-Niari and Ashish Kumar and Gang Tan and Ashutosh Trivedi
- Abstract要約: 本稿では,機械学習アルゴリズム(ML)のパラメータ空間について検討する。
精度フェアネスフロンティアを明らかにするために,3つの検索ベースソフトウェアテストアルゴリズムが提案されている。
- 参考スコア(独自算出の注目度): 21.416261003364177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates the parameter space of machine learning (ML)
algorithms in aggravating or mitigating fairness bugs. Data-driven software is
increasingly applied in social-critical applications where ensuring fairness is
of paramount importance. The existing approaches focus on addressing fairness
bugs by either modifying the input dataset or modifying the learning
algorithms. On the other hand, the selection of hyperparameters, which provide
finer controls of ML algorithms, may enable a less intrusive approach to
influence the fairness. Can hyperparameters amplify or suppress discrimination
present in the input dataset? How can we help programmers in detecting,
understanding, and exploiting the role of hyperparameters to improve the
fairness?
We design three search-based software testing algorithms to uncover the
precision-fairness frontier of the hyperparameter space. We complement these
algorithms with statistical debugging to explain the role of these parameters
in improving fairness. We implement the proposed approaches in the tool
Parfait-ML (PARameter FAIrness Testing for ML Libraries) and show its
effectiveness and utility over five mature ML algorithms as used in six
social-critical applications. In these applications, our approach successfully
identified hyperparameters that significantly improve (vis-a-vis the
state-of-the-art techniques) the fairness without sacrificing precision.
Surprisingly, for some algorithms (e.g., random forest), our approach showed
that certain configuration of hyperparameters (e.g., restricting the search
space of attributes) can amplify biases across applications. Upon further
investigation, we found intuitive explanations of these phenomena, and the
results corroborate similar observations from the literature.
- Abstract(参考訳): 本稿では,機械学習(ml)アルゴリズムのフェアネスバグの悪化や軽減におけるパラメータ空間について検討する。
データ駆動ソフトウェアは、公平性を保証することが最重要となる社会クリティカルなアプリケーションでますます使われています。
既存のアプローチでは、入力データセットを変更したり、学習アルゴリズムを変更したりすることで、公正なバグに対処することに重点を置いている。
一方、mlアルゴリズムの微妙な制御を提供するハイパーパラメータの選択は、公平性に影響を与える侵入的アプローチを少なくする可能性がある。
ハイパーパラメータは、入力データセットに存在する差別を増幅または抑制できるか?
プログラマがハイパーパラメータの役割を検知し、理解し、活用し、公平性を改善するのにどのように役立つか?
我々は,ハイパーパラメータ空間の精密度フロンティアを明らかにするために,探索に基づく3つのソフトウェアテストアルゴリズムを設計する。
これらのアルゴリズムを統計的デバッグで補完し,公平性向上におけるパラメータの役割を説明する。
提案手法をParfait-ML (Parameter FAIrness Testing for ML Libraries) に実装し、6つのソーシャルクリティカルアプリケーションで使用される5つの成熟MLアルゴリズムの有効性と有用性を示す。
これらの応用では, 精度を犠牲にすることなく, 精度を著しく向上するハイパーパラメータ(最先端技術)の同定に成功した。
驚くべきことに、いくつかのアルゴリズム(例えばランダムフォレスト)では、ハイパーパラメータの特定の構成(例えば属性の探索空間を制限する)がアプリケーション間のバイアスを増幅できることを示した。
さらなる調査の結果,これらの現象の直感的な説明が得られ,文献からも同様の観察結果が得られた。
関連論文リスト
- HyperQ-Opt: Q-learning for Hyperparameter Optimization [0.0]
本稿では,HPOを逐次決定問題として定式化し,強化学習技術であるQ-ラーニングを活用することにより,HPOに対する新たな視点を示す。
これらのアプローチは、限られた試行数で最適または準最適構成を見つける能力について評価されている。
このパラダイムをポリシーベースの最適化にシフトすることで、スケーラブルで効率的な機械学習アプリケーションのためのHPOメソッドの進歩に寄与する。
論文 参考訳(メタデータ) (2024-12-23T18:22:34Z) - UNEM: UNrolled Generalized EM for Transductive Few-Shot Learning [35.62208317531141]
我々は「最適化学習」とも呼ばれるアンロールパラダイムを提唱し紹介する。
我々のアンローリングアプローチは、様々な統計的特徴分布と事前学習パラダイムをカバーしている。
本稿では,下流画像分類作業の細粒度を網羅した包括的実験について報告する。
論文 参考訳(メタデータ) (2024-12-21T19:01:57Z) - Beyond algorithm hyperparameters: on preprocessing hyperparameters and associated pitfalls in machine learning applications [0.30786914102688595]
本稿では,予測モデルの生成と評価のための異なる手順について,実験的に考察する。
潜在的な落とし穴、特に誇張されたパフォーマンスクレームにつながる可能性のあるものを強調することで、このレビューはMLアプリケーションにおける予測モデリングの品質をさらに向上することを目的としている。
論文 参考訳(メタデータ) (2024-12-04T17:29:10Z) - Fairness Through Controlled (Un)Awareness in Node Embeddings [4.818571559544213]
EmphCrossWalkアルゴリズムのパラメトリゼーションがノード埋め込みから機密属性を推測する能力にどのように影響するかを示す。
この機能は、グラフ埋め込みを利用したMLシステムの公正性を改善するための貴重なツールを提供する。
論文 参考訳(メタデータ) (2024-07-29T14:01:26Z) - Masked Thought: Simply Masking Partial Reasoning Steps Can Improve Mathematical Reasoning Learning of Language Models [102.72940700598055]
推論タスクでは、小さなエラーでも不正確な結果にカスケードすることができる。
入力の摂動に頼らず、外部リソースの導入を避ける手法を開発した。
私たちのトレーニングアプローチでは、思考の連鎖の中で特定のトークンをランダムにマスクします。
論文 参考訳(メタデータ) (2024-03-04T16:21:54Z) - Interactive Hyperparameter Optimization in Multi-Objective Problems via
Preference Learning [65.51668094117802]
我々は多目的機械学習(ML)に適した人間中心型対話型HPO手法を提案する。
ユーザが自分のニーズに最も適した指標を推測する代わりに、私たちのアプローチは自動的に適切な指標を学習します。
論文 参考訳(メタデータ) (2023-09-07T09:22:05Z) - Efficient Model-Free Exploration in Low-Rank MDPs [76.87340323826945]
低ランクマルコフ決定プロセスは、関数近似を持つRLに対して単純だが表現力のあるフレームワークを提供する。
既存のアルゴリズムは、(1)計算的に抽出可能であるか、または(2)制限的な統計的仮定に依存している。
提案手法は,低ランクMPPの探索のための最初の実証可能なサンプル効率アルゴリズムである。
論文 参考訳(メタデータ) (2023-07-08T15:41:48Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Individually Fair Gradient Boosting [86.1984206610373]
我々は、グラデーションブーストにおいて個人の公平性を強制するタスクを検討する。
アルゴリズムがグローバルに収束し、一般化することを示す。
また,アルゴリズムバイアスの影響を受けやすい3つのml問題に対するアルゴリズムの有効性を示す。
論文 参考訳(メタデータ) (2021-03-31T03:06:57Z) - A Bandit-Based Algorithm for Fairness-Aware Hyperparameter Optimization [5.337302350000984]
本稿では,帯域幅に基づくフェアネス対応ハイパーパラメータ最適化(HO)アルゴリズムであるFairbandを提案する。
HOにフェアネスの概念を導入することで、現実のMLパイプラインへのフェアネス目標のシームレスかつ効率的な統合を可能にします。
この結果から,Fairbandはパラメータ最適化によって効率よくフェアネスと精度のトレードオフをナビゲートできることが示唆された。
論文 参考訳(メタデータ) (2020-10-07T21:35:16Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。