論文の概要: Fair Machine Learning Under Partial Compliance
- arxiv url: http://arxiv.org/abs/2011.03654v4
- Date: Tue, 27 Sep 2022 02:59:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 22:26:18.742234
- Title: Fair Machine Learning Under Partial Compliance
- Title(参考訳): 部分コンプライアンス下での公正な機械学習
- Authors: Jessica Dai, Sina Fazelpour, Zachary C. Lipton
- Abstract要約: 本稿では,雇用市場のシンプルなモデルを提案し,シミュレーションを応用して,インタラクション効果とインセンティブ効果が結果や監査指標に与える影響を調査する。
我々の主要な発見は、均衡において、部分的コンプライアンス(雇用主のk%)は、完全なコンプライアンス結果に対して、はるかに少ない(k%)進歩をもたらすことである。
- 参考スコア(独自算出の注目度): 22.119168255562897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Typically, fair machine learning research focuses on a single decisionmaker
and assumes that the underlying population is stationary. However, many of the
critical domains motivating this work are characterized by competitive
marketplaces with many decisionmakers. Realistically, we might expect only a
subset of them to adopt any non-compulsory fairness-conscious policy, a
situation that political philosophers call partial compliance. This possibility
raises important questions: how does the strategic behavior of decision
subjects in partial compliance settings affect the allocation outcomes? If k%
of employers were to voluntarily adopt a fairness-promoting intervention,
should we expect k% progress (in aggregate) towards the benefits of universal
adoption, or will the dynamics of partial compliance wash out the hoped-for
benefits? How might adopting a global (versus local) perspective impact the
conclusions of an auditor? In this paper, we propose a simple model of an
employment market, leveraging simulation as a tool to explore the impact of
both interaction effects and incentive effects on outcomes and auditing
metrics. Our key findings are that at equilibrium: (1) partial compliance (k%
of employers) can result in far less than proportional (k%) progress towards
the full compliance outcomes; (2) the gap is more severe when fair employers
match global (vs local) statistics; (3) choices of local vs global statistics
can paint dramatically different pictures of the performance vis-a-vis fairness
desiderata of compliant versus non-compliant employers; and (4) partial
compliance to local parity measures can induce extreme segregation.
- Abstract(参考訳): 通常、公正な機械学習の研究は単一の意思決定者に焦点を当て、基礎となる人口は静止していると仮定する。
しかし、この作品のモチベーションとなる重要な領域の多くは、多くの意思決定者と競争する市場によって特徴づけられる。
現実的には、強制的でない公平さを意識した政策を採用するのは一部の者に限られるかもしれない。
部分コンプライアンス設定における意思決定者の戦略的行動は、アロケーションの結果にどのように影響するか?
もし雇用主のk%が自発的に公正促進の介入を採用するなら、k%は普遍的な採用の利益に向けて進歩するか、あるいは、部分的コンプライアンスのダイナミクスが期待する利益を洗い流すのだろうか?
グローバルな(ローカルな)視点の採用は監査人の結論にどのように影響しますか?
本稿では,対話効果とインセンティブ効果が成果や監査指標に与える影響を検討するためのツールとしてシミュレーションを用いて,雇用市場の簡易モデルを提案する。
Our key findings are that at equilibrium: (1) partial compliance (k% of employers) can result in far less than proportional (k%) progress towards the full compliance outcomes; (2) the gap is more severe when fair employers match global (vs local) statistics; (3) choices of local vs global statistics can paint dramatically different pictures of the performance vis-a-vis fairness desiderata of compliant versus non-compliant employers; and (4) partial compliance to local parity measures can induce extreme segregation.
関連論文リスト
- Properties of fairness measures in the context of varying class imbalance and protected group ratios [15.942660279740727]
クラス変更のための公正度尺度の一般的な性質と保護群比率について検討する。
また,クラス不均衡比の変化に対して,完全公平性を達成する確率がどう変化するかを測定した。
以上の結果から, 正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の正の偏差は, 等級不均衡の変化に敏感であることが示唆された。
論文 参考訳(メタデータ) (2024-11-13T08:18:03Z) - Achieving Fairness in Predictive Process Analytics via Adversarial Learning [50.31323204077591]
本稿では、デバイアスフェーズを予測ビジネスプロセス分析に組み込むことの課題に対処する。
本研究の枠組みは, 4つのケーススタディで検証し, 予測値に対する偏り変数の寄与を著しく低減することを示した。
論文 参考訳(メタデータ) (2024-10-03T15:56:03Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - The Unfairness of $\varepsilon$-Fairness [0.0]
我々は、$varepsilon$-fairnessという概念が採用されれば、現実世界の文脈で最大に不公平な結果をもたらす可能性があることを示した。
本研究は,大学入学と信用リスク評価の2つの実例を用いて実施した。
論文 参考訳(メタデータ) (2024-05-15T14:13:35Z) - Reduced-Rank Multi-objective Policy Learning and Optimization [57.978477569678844]
実際には、因果研究者は先験を念頭において1つの結果を持っていない。
政府支援の社会福祉プログラムでは、政策立案者は貧困の多次元的性質を理解するために多くの成果を集めている。
本稿では、最適政策学習の文脈において、複数の結果に対するデータ駆動型次元性推論手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T08:16:30Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - When mitigating bias is unfair: multiplicity and arbitrariness in algorithmic group fairness [8.367620276482056]
本稿では,5次元によるバイアス緩和を評価するFRAME(FaiRness Arbitrariness and Multiplicity Evaluation)フレームワークを紹介する。
FRAMEをキーデータセット全体にわたる様々なバイアス緩和アプローチに適用することにより、デバイアス手法の挙動に顕著な違いを示すことができる。
これらの知見は、現在の公平性基準の限界と、偏見過程における固有の仲裁性を強調している。
論文 参考訳(メタデータ) (2023-02-14T16:53:52Z) - Fairness in Contextual Resource Allocation Systems: Metrics and
Incompatibility Results [7.705334602362225]
本研究は、住宅を提供するホームレスサービスなど、基本的なニーズを満たすため、不足する資源を割り当てるシステムについて研究する。
これらの制度は、しばしば、体系的な人種、性別、その他の不正によって不当に影響を受けるコミュニティをサポートする。
本稿では,機械学習における公平度指標に触発された文脈的資源配分システムにおける公平性を評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-04T02:30:58Z) - Measuring and signing fairness as performance under multiple stakeholder
distributions [39.54243229669015]
学習システムの公正度を測定するための最良のツールは、数学的ワンライナーとしてカプセル化された剛性公正度メトリクスである。
本稿では, フェアネス指標の定式化から, それらが計算される例の分布の算出に焦点を移すことを提案する。
ストレステストのための完全な実装ガイドラインを提供し、このフレームワークの利点と欠点の両方を説明します。
論文 参考訳(メタデータ) (2022-07-20T15:10:02Z) - Equality before the Law: Legal Judgment Consistency Analysis for
Fairness [55.91612739713396]
本論文では,LInCo(Legal Inconsistency Coefficient)の判定不整合性評価指標を提案する。
法的な判断予測(LJP)モデルを用いて異なる集団の裁判官をシミュレートし、異なる集団で訓練されたLJPモデルによる判断結果の不一致を判断する。
私達はLInCoを実際の場合の不一致を探検するために使用し、次の観察に来ます:(1)地域およびジェンダーの不一致は法制度でありますが、ジェンダーの不一致は地方不一致より大いにより少しです。
論文 参考訳(メタデータ) (2021-03-25T14:28:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。