論文の概要: Fix Fairness, Don't Ruin Accuracy: Performance Aware Fairness Repair
using AutoML
- arxiv url: http://arxiv.org/abs/2306.09297v1
- Date: Thu, 15 Jun 2023 17:25:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 13:37:08.837547
- Title: Fix Fairness, Don't Ruin Accuracy: Performance Aware Fairness Repair
using AutoML
- Title(参考訳): フェアネスの修正, ルールの正確さを損なわない: AutoML を用いたパフォーマンスアウェアフェアネスの修復
- Authors: Giang Nguyen, Sumon Biswas, Hridesh Rajan
- Abstract要約: 本稿では、自動機械学習(AutoML)技術を用いてバイアスを軽減する新しい手法を提案する。
AutoMLのデフォルトの最適化機能を改善し、公平さの目標を取り入れることで、バイアスをほとんど、あるいは全く精度を損なわずに軽減することが可能になります。
Fair-AutoMLは64例中60例を修復し,既存のバイアス緩和法は64例中44例を修復した。
- 参考スコア(独自算出の注目度): 8.789656856095947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) is increasingly being used in critical decision-making
software, but incidents have raised questions about the fairness of ML
predictions. To address this issue, new tools and methods are needed to
mitigate bias in ML-based software. Previous studies have proposed bias
mitigation algorithms that only work in specific situations and often result in
a loss of accuracy. Our proposed solution is a novel approach that utilizes
automated machine learning (AutoML) techniques to mitigate bias. Our approach
includes two key innovations: a novel optimization function and a
fairness-aware search space. By improving the default optimization function of
AutoML and incorporating fairness objectives, we are able to mitigate bias with
little to no loss of accuracy. Additionally, we propose a fairness-aware search
space pruning method for AutoML to reduce computational cost and repair time.
Our approach, built on the state-of-the-art Auto-Sklearn tool, is designed to
reduce bias in real-world scenarios. In order to demonstrate the effectiveness
of our approach, we evaluated our approach on four fairness problems and 16
different ML models, and our results show a significant improvement over the
baseline and existing bias mitigation techniques. Our approach, Fair-AutoML,
successfully repaired 60 out of 64 buggy cases, while existing bias mitigation
techniques only repaired up to 44 out of 64 cases.
- Abstract(参考訳): 機械学習(ML)は、重要な意思決定ソフトウェアでますます使われているが、インシデントによってML予測の公平性に関する疑問が持ち上がっている。
この問題に対処するには、MLベースのソフトウェアのバイアスを軽減するために、新しいツールとメソッドが必要である。
これまでの研究では、特定の状況でのみ動作し、しばしば精度を失うバイアス軽減アルゴリズムが提案されている。
提案手法は,自動機械学習(automl)技術を用いてバイアスを軽減する新しい手法である。
我々のアプローチには、新しい最適化機能と公正な検索空間の2つの重要な革新が含まれている。
automlのデフォルト最適化関数を改善し、公平性目標を組み込むことで、精度の損なうことなくバイアスを軽減できる。
さらに,計算コストと修理時間を削減するために,automlのフェアネスアウェア探索空間プルーニング手法を提案する。
我々のアプローチは最先端のAuto-Sklearnツールに基づいており、現実のシナリオにおけるバイアスを減らすように設計されています。
提案手法の有効性を実証するため,提案手法を4つの公平性問題と16の異なるMLモデルで評価し,その結果,ベースラインおよび既存バイアス軽減技術に対して有意な改善が得られた。
私たちのアプローチであるfair-automlは,64症例中60例の修復に成功したが,既存のバイアス軽減技術では64例中44例までしか修復できなかった。
関連論文リスト
- Unlearning as multi-task optimization: A normalized gradient difference approach with an adaptive learning rate [105.86576388991713]
正規化勾配差(NGDiff)アルゴリズムを導入し、目的間のトレードオフをよりよく制御できるようにする。
本研究では,TOFUおよびMUSEデータセットにおける最先端の未学習手法において,NGDiffの優れた性能を実証的に実証し,理論的解析を行った。
論文 参考訳(メタデータ) (2024-10-29T14:41:44Z) - The Devil is in the Errors: Leveraging Large Language Models for
Fine-grained Machine Translation Evaluation [93.01964988474755]
AutoMQMは,大規模な言語モデルに対して,翻訳におけるエラーの識別と分類を求めるプロンプト技術である。
テキスト内学習と微調整によるラベル付きデータの影響について検討する。
次に, PaLM-2モデルを用いてAutoMQMを評価し, スコアのプロンプトよりも性能が向上することがわかった。
論文 参考訳(メタデータ) (2023-08-14T17:17:21Z) - Leaving the Nest: Going Beyond Local Loss Functions for
Predict-Then-Optimize [57.22851616806617]
本手法は,文献から得られた4つの領域において,最先端の成果が得られることを示す。
提案手法は, 局所性仮定が破られた場合, 既存手法よりも200%近く性能が向上する。
論文 参考訳(メタデータ) (2023-05-26T11:17:45Z) - Can Fairness be Automated? Guidelines and Opportunities for
Fairness-aware AutoML [52.86328317233883]
本報告では、公平性に関連する害が発生する様々な方法の概要を概説する。
この方向に進むためには、いくつかのオープンな技術的課題を強調します。
論文 参考訳(メタデータ) (2023-03-15T09:40:08Z) - Towards Fair Machine Learning Software: Understanding and Addressing
Model Bias Through Counterfactual Thinking [16.196269707571904]
本稿では,機械学習ソフトウェアにおけるバイアスの根本原因に対処するための新しい対策手法を提案する。
提案手法は,性能と公平性の両方に最適化されたモデルを組み合わせることで,両面において最適解となる。
論文 参考訳(メタデータ) (2023-02-16T01:27:26Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - A Comprehensive Empirical Study of Bias Mitigation Methods for Software
Fairness [27.67313504037565]
本稿では,バイアス緩和手法の大規模かつ包括的評価について述べる。
バイアス緩和法は,12の機械学習(ML)性能指標,4つのフェアネス指標,24種類のフェアネス・パフォーマンストレードオフ評価を用いて評価した。
バイアス緩和法の有効性は,タスク,モデル,公正度,機械学習のパフォーマンス指標に依存するが,すべてのシナリオにおいて有効な「銀の弾丸」バイアス緩和法は存在しない。
論文 参考訳(メタデータ) (2022-07-07T13:14:49Z) - Learning the Quality of Machine Permutations in Job Shop Scheduling [9.972171952370287]
機械の順列の質を予測することを目的とした新しい教師付き学習タスクを提案する。
そして、我々は、正確な逐次深層学習モデルを作成することができるような、この品質を推定する独自の方法論を設計する。
論文 参考訳(メタデータ) (2022-07-07T11:53:10Z) - Individually Fair Gradient Boosting [86.1984206610373]
我々は、グラデーションブーストにおいて個人の公平性を強制するタスクを検討する。
アルゴリズムがグローバルに収束し、一般化することを示す。
また,アルゴリズムバイアスの影響を受けやすい3つのml問題に対するアルゴリズムの有効性を示す。
論文 参考訳(メタデータ) (2021-03-31T03:06:57Z) - Interpret-able feedback for AutoML systems [5.5524559605452595]
自動機械学習(AutoML)システムは、非ML専門家のための機械学習(ML)モデルのトレーニングを可能にすることを目的としている。
これらのシステムの欠点は、高い精度でモデルの生成に失敗した場合、モデルを改善するためのパスがないことである。
AutoML用の解釈可能なデータフィードバックソリューションを紹介します。
論文 参考訳(メタデータ) (2021-02-22T18:54:26Z) - Robusta: Robust AutoML for Feature Selection via Reinforcement Learning [24.24652530951966]
強化学習(RL)に基づく初の堅牢なAutoMLフレームワークRobostaを提案します。
このフレームワークは,良性サンプルの競争精度を維持しつつ,モデルロバスト性を最大22%向上させることができることを示す。
論文 参考訳(メタデータ) (2021-01-15T03:12:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。