論文の概要: Measuring and signing fairness as performance under multiple stakeholder
distributions
- arxiv url: http://arxiv.org/abs/2207.09960v1
- Date: Wed, 20 Jul 2022 15:10:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 13:09:49.818552
- Title: Measuring and signing fairness as performance under multiple stakeholder
distributions
- Title(参考訳): 複数の利害関係者分布における評価と署名の公正性
- Authors: David Lopez-Paz, Diane Bouchacourt, Levent Sagun, Nicolas Usunier
- Abstract要約: 学習システムの公正度を測定するための最良のツールは、数学的ワンライナーとしてカプセル化された剛性公正度メトリクスである。
本稿では, フェアネス指標の定式化から, それらが計算される例の分布の算出に焦点を移すことを提案する。
ストレステストのための完全な実装ガイドラインを提供し、このフレームワークの利点と欠点の両方を説明します。
- 参考スコア(独自算出の注目度): 39.54243229669015
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As learning machines increase their influence on decisions concerning human
lives, analyzing their fairness properties becomes a subject of central
importance. Yet, our best tools for measuring the fairness of learning systems
are rigid fairness metrics encapsulated as mathematical one-liners, offer
limited power to the stakeholders involved in the prediction task, and are easy
to manipulate when we exhort excessive pressure to optimize them. To advance
these issues, we propose to shift focus from shaping fairness metrics to
curating the distributions of examples under which these are computed. In
particular, we posit that every claim about fairness should be immediately
followed by the tagline "Fair under what examples, and collected by whom?". By
highlighting connections to the literature in domain generalization, we propose
to measure fairness as the ability of the system to generalize under multiple
stress tests -- distributions of examples with social relevance. We encourage
each stakeholder to curate one or multiple stress tests containing examples
reflecting their (possibly conflicting) interests. The machine passes or fails
each stress test by falling short of or exceeding a pre-defined metric value.
The test results involve all stakeholders in a discussion about how to improve
the learning system, and provide flexible assessments of fairness dependent on
context and based on interpretable data. We provide full implementation
guidelines for stress testing, illustrate both the benefits and shortcomings of
this framework, and introduce a cryptographic scheme to enable a degree of
prediction accountability from system providers.
- Abstract(参考訳): 学習機械が人間の生活に関する意思決定に影響を及ぼすにつれて、公平性の分析が重要となる。
しかし、学習システムの公平性を測定するための最良のツールは、数学的一行としてカプセル化された厳格な公平度メトリクスであり、予測タスクに関わる利害関係者に限定的な力を提供し、最適化に過度の圧力をかけると操作が容易である。
この問題を進めるため,我々は,公平度メトリクスの作成から,これらを計算した例の分布のキュレーションへと焦点を移すことを提案する。
特に、フェアネスに関するすべての主張は、すぐに「どの例で、誰によって収集され、誰によって収集されるか」というタグラインに従わなければならないと仮定する。
ドメイン一般化における文献とのつながりを強調することにより,複数のストレステスト(社会的関連性のある例の分布)において,システムが一般化する能力としての公平性を測定することを提案する。
利害関係を反映した例を含む1つまたは複数のストレステストの実施を各ステークホルダに推奨します。
マシンは、予め定義された計量値の不足または超過によって、各応力試験を通過または失敗する。
テスト結果は、すべてのステークホルダーが学習システムを改善する方法についての議論に参加し、文脈に依存して解釈可能なデータに基づいて公平さを柔軟に評価する。
ストレステストのための完全な実装ガイドラインを提供し、このフレームワークの利点と欠点を説明し、システムプロバイダによる予測責任の程度を可能にする暗号スキームを導入する。
関連論文リスト
- Properties of fairness measures in the context of varying class imbalance and protected group ratios [15.942660279740727]
クラス変更のための公正度尺度の一般的な性質と保護群比率について検討する。
また,クラス不均衡比の変化に対して,完全公平性を達成する確率がどう変化するかを測定した。
以上の結果から, 正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の偏差は, 等級不均衡の変化に敏感であることが示唆された。
論文 参考訳(メタデータ) (2024-11-13T08:18:03Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Understanding Instance-Level Impact of Fairness Constraints [12.866655972682254]
公正な制約が課された場合のトレーニング例の影響について検討する。
重みのあるデータ例のサブセットでのトレーニングは、精度のトレードオフによって公平性違反の低減につながることが分かっています。
論文 参考訳(メタデータ) (2022-06-30T17:31:33Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Towards a Fairness-Aware Scoring System for Algorithmic Decision-Making [35.21763166288736]
本稿では,データ駆動型フェアネス対応スコアリングシステムを構築するための一般的なフレームワークを提案する。
提案するフレームワークは,実践者や政策立案者に対して,希望する公正性要件を選択するための柔軟性を提供する。
論文 参考訳(メタデータ) (2021-09-21T09:46:35Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Counterfactual Representation Learning with Balancing Weights [74.67296491574318]
観察データによる因果推論の鍵は、それぞれの治療タイプに関連する予測的特徴のバランスを達成することである。
近年の文献では、この目標を達成するために表現学習を探求している。
因果効果を柔軟かつスケーラブルかつ正確に推定するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-10-23T19:06:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。