論文の概要: Fair Machine Learning Under Partial Compliance
- arxiv url: http://arxiv.org/abs/2011.03654v4
- Date: Tue, 27 Sep 2022 02:59:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 22:26:18.742234
- Title: Fair Machine Learning Under Partial Compliance
- Title(参考訳): 部分コンプライアンス下での公正な機械学習
- Authors: Jessica Dai, Sina Fazelpour, Zachary C. Lipton
- Abstract要約: 本稿では,雇用市場のシンプルなモデルを提案し,シミュレーションを応用して,インタラクション効果とインセンティブ効果が結果や監査指標に与える影響を調査する。
我々の主要な発見は、均衡において、部分的コンプライアンス(雇用主のk%)は、完全なコンプライアンス結果に対して、はるかに少ない(k%)進歩をもたらすことである。
- 参考スコア(独自算出の注目度): 22.119168255562897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Typically, fair machine learning research focuses on a single decisionmaker
and assumes that the underlying population is stationary. However, many of the
critical domains motivating this work are characterized by competitive
marketplaces with many decisionmakers. Realistically, we might expect only a
subset of them to adopt any non-compulsory fairness-conscious policy, a
situation that political philosophers call partial compliance. This possibility
raises important questions: how does the strategic behavior of decision
subjects in partial compliance settings affect the allocation outcomes? If k%
of employers were to voluntarily adopt a fairness-promoting intervention,
should we expect k% progress (in aggregate) towards the benefits of universal
adoption, or will the dynamics of partial compliance wash out the hoped-for
benefits? How might adopting a global (versus local) perspective impact the
conclusions of an auditor? In this paper, we propose a simple model of an
employment market, leveraging simulation as a tool to explore the impact of
both interaction effects and incentive effects on outcomes and auditing
metrics. Our key findings are that at equilibrium: (1) partial compliance (k%
of employers) can result in far less than proportional (k%) progress towards
the full compliance outcomes; (2) the gap is more severe when fair employers
match global (vs local) statistics; (3) choices of local vs global statistics
can paint dramatically different pictures of the performance vis-a-vis fairness
desiderata of compliant versus non-compliant employers; and (4) partial
compliance to local parity measures can induce extreme segregation.
- Abstract(参考訳): 通常、公正な機械学習の研究は単一の意思決定者に焦点を当て、基礎となる人口は静止していると仮定する。
しかし、この作品のモチベーションとなる重要な領域の多くは、多くの意思決定者と競争する市場によって特徴づけられる。
現実的には、強制的でない公平さを意識した政策を採用するのは一部の者に限られるかもしれない。
部分コンプライアンス設定における意思決定者の戦略的行動は、アロケーションの結果にどのように影響するか?
もし雇用主のk%が自発的に公正促進の介入を採用するなら、k%は普遍的な採用の利益に向けて進歩するか、あるいは、部分的コンプライアンスのダイナミクスが期待する利益を洗い流すのだろうか?
グローバルな(ローカルな)視点の採用は監査人の結論にどのように影響しますか?
本稿では,対話効果とインセンティブ効果が成果や監査指標に与える影響を検討するためのツールとしてシミュレーションを用いて,雇用市場の簡易モデルを提案する。
Our key findings are that at equilibrium: (1) partial compliance (k% of employers) can result in far less than proportional (k%) progress towards the full compliance outcomes; (2) the gap is more severe when fair employers match global (vs local) statistics; (3) choices of local vs global statistics can paint dramatically different pictures of the performance vis-a-vis fairness desiderata of compliant versus non-compliant employers; and (4) partial compliance to local parity measures can induce extreme segregation.
関連論文リスト
- Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Counterfactually Fair Regression with Double Machine Learning [0.0]
本稿では,Double Machine Learning (DML) Fairnessを提案する。
回帰問題における反ファクト的公平性の問題を因果推論における反ファクト的結果の推定問題に類似させる。
本研究は、職場雇用における差別に関するシミュレーション研究におけるアプローチと、法学部学生のGPAを推定する実データへの適用を実証する。
論文 参考訳(メタデータ) (2023-03-21T01:28:23Z) - Fairness in Contextual Resource Allocation Systems: Metrics and
Incompatibility Results [7.705334602362225]
本研究は、住宅を提供するホームレスサービスなど、基本的なニーズを満たすため、不足する資源を割り当てるシステムについて研究する。
これらの制度は、しばしば、体系的な人種、性別、その他の不正によって不当に影響を受けるコミュニティをサポートする。
本稿では,機械学習における公平度指標に触発された文脈的資源配分システムにおける公平性を評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-04T02:30:58Z) - Picking on the Same Person: Does Algorithmic Monoculture lead to Outcome
Homogenization? [90.35044668396591]
機械学習における繰り返しのテーマはアルゴリズムによるモノカルチャーである。同じシステム、またはコンポーネントを共有するシステムは、複数の意思決定者によってデプロイされる。
意思決定者がトレーニングデータや特定のモデルなどのコンポーネントを共有すれば、より均一な結果が得られます。
我々はこの仮説をアルゴリズムフェアネスベンチマークで検証し、トレーニングデータの共有がホモジェナイゼーションを確実に悪化させることを示した。
結果の均質化に関する哲学的分析と社会的な課題を、デプロイされた機械学習システムに含めることに着目して結論付ける。
論文 参考訳(メタデータ) (2022-11-25T09:33:11Z) - Measuring and signing fairness as performance under multiple stakeholder
distributions [39.54243229669015]
学習システムの公正度を測定するための最良のツールは、数学的ワンライナーとしてカプセル化された剛性公正度メトリクスである。
本稿では, フェアネス指標の定式化から, それらが計算される例の分布の算出に焦点を移すことを提案する。
ストレステストのための完全な実装ガイドラインを提供し、このフレームワークの利点と欠点の両方を説明します。
論文 参考訳(メタデータ) (2022-07-20T15:10:02Z) - Understanding Instance-Level Impact of Fairness Constraints [12.866655972682254]
公正な制約が課された場合のトレーニング例の影響について検討する。
重みのあるデータ例のサブセットでのトレーニングは、精度のトレードオフによって公平性違反の低減につながることが分かっています。
論文 参考訳(メタデータ) (2022-06-30T17:31:33Z) - Algorithmic Fairness and Vertical Equity: Income Fairness with IRS Tax
Audit Models [73.24381010980606]
本研究は、IRSによる税務監査選択を通知するシステムの文脈におけるアルゴリズムフェアネスの問題について検討する。
監査を選択するための柔軟な機械学習手法が、垂直エクイティにどのように影響するかを示す。
この結果は,公共セクター全体でのアルゴリズムツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-20T16:27:06Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Equality before the Law: Legal Judgment Consistency Analysis for
Fairness [55.91612739713396]
本論文では,LInCo(Legal Inconsistency Coefficient)の判定不整合性評価指標を提案する。
法的な判断予測(LJP)モデルを用いて異なる集団の裁判官をシミュレートし、異なる集団で訓練されたLJPモデルによる判断結果の不一致を判断する。
私達はLInCoを実際の場合の不一致を探検するために使用し、次の観察に来ます:(1)地域およびジェンダーの不一致は法制度でありますが、ジェンダーの不一致は地方不一致より大いにより少しです。
論文 参考訳(メタデータ) (2021-03-25T14:28:00Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z) - Off-policy Evaluation in Infinite-Horizon Reinforcement Learning with
Latent Confounders [62.54431888432302]
無限水平エルゴードマルコフ決定過程におけるOPE問題について考察する。
我々は、状態と行動の潜在変数モデルのみを考慮すれば、政策値が政治外のデータから特定できることを示す。
論文 参考訳(メタデータ) (2020-07-27T22:19:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。