論文の概要: Predicting Fairness of ML Software Configurations
- arxiv url: http://arxiv.org/abs/2404.19100v2
- Date: Mon, 1 Jul 2024 16:16:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-02 14:19:57.342392
- Title: Predicting Fairness of ML Software Configurations
- Title(参考訳): MLソフトウェア構成の公正性を予測する
- Authors: Salvador Robles Herrera, Verya Monjezi, Vladik Kreinovich, Ashutosh Trivedi, Saeid Tizpaz-Niari,
- Abstract要約: 木回帰器とXGBootsはディープニューラルネットワークを著しく上回り,HPの公正性を正確に予測するベクトルマシンをサポートした。
本手法は,機械学習学習アルゴリズムの微調整を効率的に行い,HPと公正性の関係を理解するための枠組みを提供する。
- 参考スコア(独自算出の注目度): 7.439049772394586
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the relationships between hyperparameters of machine learning and fairness. Data-driven solutions are increasingly used in critical socio-technical applications where ensuring fairness is important. Rather than explicitly encoding decision logic via control and data structures, the ML developers provide input data, perform some pre-processing, choose ML algorithms, and tune hyperparameters (HPs) to infer a program that encodes the decision logic. Prior works report that the selection of HPs can significantly influence fairness. However, tuning HPs to find an ideal trade-off between accuracy, precision, and fairness has remained an expensive and tedious task. Can we predict fairness of HP configuration for a given dataset? Are the predictions robust to distribution shifts? We focus on group fairness notions and investigate the HP space of 5 training algorithms. We first find that tree regressors and XGBoots significantly outperformed deep neural networks and support vector machines in accurately predicting the fairness of HPs. When predicting the fairness of ML hyperparameters under temporal distribution shift, the tree regressors outperforms the other algorithms with reasonable accuracy. However, the precision depends on the ML training algorithm, dataset, and protected attributes. For example, the tree regressor model was robust for training data shift from 2014 to 2018 on logistic regression and discriminant analysis HPs with sex as the protected attribute; but not for race and other training algorithms. Our method provides a sound framework to efficiently perform fine-tuning of ML training algorithms and understand the relationships between HPs and fairness.
- Abstract(参考訳): 本稿では,機械学習のハイパーパラメータとフェアネスの関係について検討する。
データ駆動型ソリューションは、公正性を保証することが重要である重要な社会技術応用において、ますます利用されている。
ML開発者は、制御とデータ構造を介して決定ロジックを明示的に符号化する代わりに、入力データを提供し、事前処理を実行し、MLアルゴリズムを選択し、決定ロジックを符号化するプログラムを推論するためにハイパーパラメータ(HP)をチューニングする。
以前の報告では、HPの選択は公正性に大きな影響を及ぼす可能性がある。
しかし、正確性、正確性、公平性の間の理想的なトレードオフを見つけるためにHPをチューニングすることは、高価で面倒な作業である。
与えられたデータセットに対するHP構成の公平性を予測できますか?
予測は分布シフトに対して堅牢か?
我々は,グループフェアネスの概念に着目し,HP空間の5つのトレーニングアルゴリズムについて検討する。
我々はまず、木の回帰器とXGBootsがディープニューラルネットワークを著しく上回り、HPの公正性を正確に予測するベクトルマシンをサポートすることを発見した。
時間分布シフトの下でMLハイパーパラメータの公平さを予測する場合、ツリー回帰器は他のアルゴリズムよりも正確な精度で性能を向上する。
しかし、精度はMLトレーニングアルゴリズム、データセット、保護属性に依存する。
例えば、ツリー回帰モデルは、2014年から2018年までのロジスティック回帰と差別分析に基づいてデータシフトをトレーニングするために堅牢でした。
本手法は,機械学習学習アルゴリズムの微調整を効率よく行い,HPと公正性の関係を理解するための音響フレームワークを提供する。
関連論文リスト
- Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - RF+clust for Leave-One-Problem-Out Performance Prediction [0.9281671380673306]
本稿では,LOPO(Left-one-problem-out)のパフォーマンス予測について検討する。
我々は、標準ランダムフォレスト(RF)モデル予測が性能値の重み付き平均値で校正することで改善できるかどうかを解析する。
論文 参考訳(メタデータ) (2023-01-23T16:14:59Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - Fair Feature Subset Selection using Multiobjective Genetic Algorithm [0.0]
フェアネスと精度を両立させる特徴部分選択手法を提案する。
モデル性能の指標としてF1-Scoreを用いる。
最も一般的なフェアネスベンチマークデータセットの実験では、進化的アルゴリズムを用いることで、フェアネスと精度のトレードオフを効果的に探索できることが示されている。
論文 参考訳(メタデータ) (2022-04-30T22:51:19Z) - Fairness-aware Configuration of Machine Learning Libraries [21.416261003364177]
本稿では,機械学習アルゴリズム(ML)のパラメータ空間について検討する。
精度フェアネスフロンティアを明らかにするために,3つの検索ベースソフトウェアテストアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2022-02-13T04:04:33Z) - Robustification of Online Graph Exploration Methods [59.50307752165016]
我々は、古典的で有名なオンライングラフ探索問題の学習強化版について研究する。
本稿では,予測をよく知られたNearest Neighbor(NN)アルゴリズムに自然に統合するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-10T10:02:31Z) - The Sharpe predictor for fairness in machine learning [0.0]
機械学習の応用においては、不公平な予測が少数派に対して差別されることがある。
フェア機械学習(FML)の既存のアプローチは、MLモデルの最適化において、フェアネスを制約またはペナル化用語として扱う。
本稿では,Multi-Objective Optimization(SMOO)に基づくFMLの新しいパラダイムを提案する。
FMLのシャープ予測器は、予測リスク(不公平)の単位当たりの最も高い予測リターン(精度)を提供する。
論文 参考訳(メタデータ) (2021-08-13T22:22:34Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - APQ: Joint Search for Network Architecture, Pruning and Quantization
Policy [49.3037538647714]
本稿では,リソース制約のあるハードウェア上での効率的なディープラーニング推論のためのAPQを提案する。
ニューラルアーキテクチャ、プルーニングポリシー、量子化ポリシーを別々に検索する従来の方法とは異なり、我々はそれらを共同で最適化する。
同じ精度で、APQはMobileNetV2+HAQよりもレイテンシ/エネルギーを2倍/1.3倍削減する。
論文 参考訳(メタデータ) (2020-06-15T16:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。