論文の概要: An Axiomatic Theory of Provably-Fair Welfare-Centric Machine Learning
- arxiv url: http://arxiv.org/abs/2104.14504v1
- Date: Thu, 29 Apr 2021 17:18:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 12:53:58.477838
- Title: An Axiomatic Theory of Provably-Fair Welfare-Centric Machine Learning
- Title(参考訳): 福祉中心型機械学習の公理的理論
- Authors: Cyrus Cousins
- Abstract要約: 私たちはマルファールを定義し、(幸福ではなく)社会全体の危害を測定する
そこで本稿では,計算および統計的学習の課題について検討する。
適切な修正を加えて、多くの標準的なPAC学習者がフェアPAC学習者に変換できる幅広い条件を示す。
- 参考スコア(独自算出の注目度): 5.634825161148484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address an inherent difficulty in welfare-theoretic fair machine learning,
proposing an equivalently-axiomatically justified alternative, and studying the
resulting computational and statistical learning questions. Welfare metrics
quantify overall wellbeing across a population of one or more groups, and
welfare-based objectives and constraints have recently been proposed to
incentivize fair machine learning methods to produce satisfactory solutions
that consider the diverse needs of multiple groups. Unfortunately, many
machine-learning problems are more naturally cast as loss minimization, rather
than utility maximization tasks, which complicates direct application of
welfare-centric methods to fair-ML tasks. In this work, we define a
complementary measure, termed malfare, measuring overall societal harm (rather
than wellbeing), with axiomatic justification via the standard axioms of
cardinal welfare. We then cast fair machine learning as a direct malfare
minimization problem, where a group's malfare is their risk (expected loss).
Surprisingly, the axioms of cardinal welfare (malfare) dictate that this is not
equivalent to simply defining utility as negative loss. Building upon these
concepts, we define fair-PAC learning, where a fair PAC-learner is an algorithm
that learns an $\varepsilon$-$\delta$ malfare-optimal model with bounded sample
complexity, for any data distribution, and for any malfare concept. We show
broad conditions under which, with appropriate modifications, many standard
PAC-learners may be converted to fair-PAC learners. This places fair-PAC
learning on firm theoretical ground, as it yields statistical, and in some
cases computational, efficiency guarantees for many well-studied
machine-learning models, and is also practically relevant, as it democratizes
fair ML by providing concrete training algorithms and rigorous generalization
guarantees for these models.
- Abstract(参考訳): 我々は、福祉理論的公正機械学習における固有の困難に対処し、等価にアキシマティックに正当化された代替案を提案し、その結果の計算および統計的学習問題を研究する。
福祉指標は、1つ以上の集団の全体的幸福度を定量化し、福祉に基づく目的と制約は、最近、複数のグループの多様なニーズを考慮した満足なソリューションを生み出すために、公正な機械学習手法をインセンティブ化するために提案されている。
残念なことに、多くの機械学習問題は、ユーティリティ最大化タスクではなく、損失最小化として自然に採用されている。
本研究は, 医療福祉の標準公理を通した公理的正当化を用いて, 社会的な被害(幸福ではなく)を総合的に測定し, 相補的尺度を定める。
次に、フェア機械学習を、集団の不正がリスク(予測損失)である直接的な不正最小化問題として捉えた。
驚くべきことに、枢機卿福祉(malfare)の公理は、これは単にユーティリティを負の損失として定義することと等価ではないと定めている。
これらの概念に基づいて、フェアPAC学習を定義し、フェアPACラーナーは、任意のデータ分布に対して、および任意の不正な概念に対して、境界付きサンプル複雑性を持つ$\varepsilon$-$\delta$ malfare-Optimalモデルを学ぶアルゴリズムである。
適切な修正を加えて、多くの標準的なPAC学習者がフェアPAC学習者に変換できる幅広い条件を示す。
これは、統計的、計算的、多くのよく研究された機械学習モデルに対して効率性が保証され、具体的なトレーニングアルゴリズムと厳密な一般化を提供することによって、公正なmlを民主化し、実際に関連するものである。
関連論文リスト
- Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Parametric Fairness with Statistical Guarantees [0.46040036610482665]
我々は、予測に分布特性を組み込むためのデモグラフィックパリティの概念を拡張し、専門家の知識を公正なソリューションで利用できるようにする。
我々は、賃金の実践的な例を通して、この新しい指標の使用を説明し、実践的な課題に効率的に対処するパラメトリック手法を開発する。
論文 参考訳(メタデータ) (2023-10-31T14:52:39Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Towards A Holistic View of Bias in Machine Learning: Bridging
Algorithmic Fairness and Imbalanced Learning [8.602734307457387]
保護されたグループに対するアルゴリズムの公正性を達成する上で重要な要素は、基礎となるトレーニングデータにおいて、クラスと保護されたグループの不均衡を同時に減少させることである。
本稿では、スキュークラス分布と保護された特徴の両方に対処する新しいオーバーサンプリングアルゴリズム、Fair Oversamplingを提案する。
論文 参考訳(メタデータ) (2022-07-13T09:48:52Z) - Fair Algorithm Design: Fair and Efficacious Machine Scheduling [0.0]
公正なアルゴリズムは低い社会福祉ソリューションをもたらすが、福祉最適化アルゴリズムは非常に不公平である。
本稿では,この二分法が,無視できる量のバイアスを許容すれば克服できることを実証する。
論文 参考訳(メタデータ) (2022-04-13T14:56:22Z) - Constrained Learning with Non-Convex Losses [119.8736858597118]
学習は現代の情報処理の中核技術になっているが、バイアス、安全でない、偏見のあるソリューションにつながるという証拠はたくさんある。
論文 参考訳(メタデータ) (2021-03-08T23:10:33Z) - Model-Augmented Q-learning [112.86795579978802]
モデルベースRLの構成要素を付加したMFRLフレームワークを提案する。
具体的には、$Q$-valuesだけでなく、共有ネットワークにおける遷移と報酬の両方を見積もる。
提案手法は,MQL (Model-augmented $Q$-learning) とよばれる提案手法により,真に報いられた学習によって得られる解と同一のポリシ不変解が得られることを示す。
論文 参考訳(メタデータ) (2021-02-07T17:56:50Z) - Fairness in Machine Learning [15.934879442202785]
因果ベイズネットワークが,公平を理屈し対処するための重要な役割を果たすことを示す。
異なる設定や公平性基準に対処できる手法を含む統一されたフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-31T18:38:58Z) - Probably Approximately Correct Constrained Learning [135.48447120228658]
我々は、ほぼ正しい学習フレームワーク(PAC)に基づく一般化理論を開発する。
PAC学習可能なクラスも制約のある学習者であるという意味では,学習者の導入は学習問題を難しくするものではないことを示す。
このソリューションの特性を分析し,制約付き学習が公平でロバストな分類における問題にどのように対処できるかを説明する。
論文 参考訳(メタデータ) (2020-06-09T19:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。