論文の概要: Probably Approximate Shapley Fairness with Applications in Machine
Learning
- arxiv url: http://arxiv.org/abs/2212.00630v1
- Date: Thu, 1 Dec 2022 16:28:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 17:44:18.074908
- Title: Probably Approximate Shapley Fairness with Applications in Machine
Learning
- Title(参考訳): 機械学習に応用したおそらく近似シェープリーフェアネス
- Authors: Zijian Zhou, Xinyi Xu, Rachael Hwee Ling Sim, Chuan Sheng Foo, Kian
Hsiang Low
- Abstract要約: Shapley値(SV)は機械学習(ML)のさまざまなシナリオで採用されている。
正確なSVは実際に計算できないので、SV推定は代わりに近似される。
この近似ステップは重要な疑問を提起する: SV推定は正確なSVの公平性を保証するか?
正確なSVの公平性保証は、SV推定に制限的すぎることが観察される。
- 参考スコア(独自算出の注目度): 18.05783128571293
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The Shapley value (SV) is adopted in various scenarios in machine learning
(ML), including data valuation, agent valuation, and feature attribution, as it
satisfies their fairness requirements. However, as exact SVs are infeasible to
compute in practice, SV estimates are approximated instead. This approximation
step raises an important question: do the SV estimates preserve the fairness
guarantees of exact SVs? We observe that the fairness guarantees of exact SVs
are too restrictive for SV estimates. Thus, we generalise Shapley fairness to
probably approximate Shapley fairness and propose fidelity score, a metric to
measure the variation of SV estimates, that determines how probable the
fairness guarantees hold. Our last theoretical contribution is a novel greedy
active estimation (GAE) algorithm that will maximise the lowest fidelity score
and achieve a better fairness guarantee than the de facto Monte-Carlo
estimation. We empirically verify GAE outperforms several existing methods in
guaranteeing fairness while remaining competitive in estimation accuracy in
various ML scenarios using real-world datasets.
- Abstract(参考訳): Shapley値(SV)は、データバリュエーション、エージェントのバリュエーション、機能属性など、機械学習(ML)のさまざまなシナリオで採用されている。
しかし、正確なSVは実際に計算できないため、SV推定は代わりに近似される。
この近似ステップは重要な疑問を提起する: SV推定は正確なSVの公平性を保証するか?
正確なSVの公平性保証は、SV推定に制限的すぎることが観察される。
したがって、Shapley Fairness をおそらく近似したShapley Fairness に一般化し、SV推定の変動を測定する指標であるfidelity score を提案する。
最後の理論的な貢献は、最も低い忠実度スコアを最大化し、事実上のモンテカルロ推定よりも公平性を保証する新しいgreedy active estimation (gae)アルゴリズムである。
我々は,実世界データセットを用いた様々なmlシナリオにおける推定精度の競争力を維持しつつ,公平性の保証においてgaeが既存の手法を上回っていることを実証的に検証する。
関連論文リスト
- Calibrated and Efficient Sampling-Free Confidence Estimation for LiDAR Scene Semantic Segmentation [1.8861801513235323]
分類タスクの信頼度を適切に推定するためのサンプリング不要な手法を提案する。
提案手法は,処理速度の向上を図りながら,精度の高い信頼度を維持している。
本手法は, 過信予測よりも不信感を生じ, 安全クリティカルなアプリケーションに有利である。
論文 参考訳(メタデータ) (2024-11-18T15:13:20Z) - Probabilistic Conformal Prediction with Approximate Conditional Validity [81.30551968980143]
本研究では,共形手法の柔軟性と条件分布の推定を組み合わせ,予測セットを生成する手法を開発した。
我々の手法は、条件付きカバレッジの観点から既存の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2024-07-01T20:44:48Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - A Note on "Towards Efficient Data Valuation Based on the Shapley Value'' [7.4011772612133475]
Shapley値(SV)は、データバリュエーションの有望な方法として登場した。
グループテストに基づくSV推定器は、良好なサンプル複雑性を実現する。
論文 参考訳(メタデータ) (2023-02-22T15:13:45Z) - Data Banzhaf: A Robust Data Valuation Framework for Machine Learning [18.65808473565554]
本稿では, 雑音モデルの性能スコアに対するデータ評価のロバスト性について検討する。
データ価値の概念の堅牢性を測定する安全マージンの概念を導入する。
また,Banzhaf値がすべての半値の中で最大の安全性マージンを達成していることを示す。
論文 参考訳(メタデータ) (2022-05-30T23:44:09Z) - Fair and efficient contribution valuation for vertical federated
learning [49.50442779626123]
フェデレートラーニング(Federated Learning)は、データを共有することなく、分散データソース上で機械学習モデルをトレーニングするための一般的な技術である。
シェープリー値(Shapley value, SV)は、協調ゲーム理論から派生した、証明可能なフェアコントリビューション評価指標である。
本稿では,SVに基づく垂直結合シェープ値(VerFedSV)と呼ばれるコントリビューション評価指標を提案する。
論文 参考訳(メタデータ) (2022-01-07T19:57:15Z) - Large-Scale Methods for Distributionally Robust Optimization [53.98643772533416]
我々のアルゴリズムは、トレーニングセットのサイズとパラメータの数によらず、多くの評価勾配を必要とすることを証明している。
MNIST と ImageNet の実験により,本手法の 9-36 倍の効率性を持つアルゴリズムの理論的スケーリングが確認された。
論文 参考訳(メタデータ) (2020-10-12T17:41:44Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z) - Robust Validation: Confident Predictions Even When Distributions Shift [19.327409270934474]
本稿では,モデルが点予測ではなく,その予測に対して不確実な推定を行うような,頑健な予測推論の手順について述べる。
本稿では, トレーニング集団の周囲に$f$-divergence のボールを用いて, 任意のテスト分布に対して適切なカバレッジレベルを与える予測セットを生成する手法を提案する。
私たちの方法論の重要な構成要素は、将来のデータシフトの量を見積り、それに対する堅牢性を構築することです。
論文 参考訳(メタデータ) (2020-08-10T17:09:16Z) - Evaluating probabilistic classifiers: Reliability diagrams and score
decompositions revisited [68.8204255655161]
確率的に統計的に一貫性があり、最適に結合し、再現可能な信頼性図を自動生成するCORP手法を導入する。
コーパスは非パラメトリックアイソトニック回帰に基づいており、プール・アジャセント・ヴァイオレータ(PAV)アルゴリズムによって実装されている。
論文 参考訳(メタデータ) (2020-08-07T08:22:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。