論文の概要: Performativity and Prospective Fairness
- arxiv url: http://arxiv.org/abs/2310.08349v1
- Date: Thu, 12 Oct 2023 14:18:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 11:10:19.793634
- Title: Performativity and Prospective Fairness
- Title(参考訳): パフォーマティビティと展望フェアネス
- Authors: Sebastian Zezulka and Konstantin Genin
- Abstract要約: 本稿では,因果的下流結果変数に対するアルゴリズム的効果に着目した。
我々は、このような政策が労働市場の男女不平等を悪化させるかどうかを予測する方法を示す。
- 参考スコア(独自算出の注目度): 4.3512163406552
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deploying an algorithmically informed policy is a significant intervention in
the structure of society. As is increasingly acknowledged, predictive
algorithms have performative effects: using them can shift the distribution of
social outcomes away from the one on which the algorithms were trained.
Algorithmic fairness research is usually motivated by the worry that these
performative effects will exacerbate the structural inequalities that gave rise
to the training data. However, standard retrospective fairness methodologies
are ill-suited to predict these effects. They impose static fairness
constraints that hold after the predictive algorithm is trained, but before it
is deployed and, therefore, before performative effects have had a chance to
kick in. However, satisfying static fairness criteria after training is not
sufficient to avoid exacerbating inequality after deployment. Addressing the
fundamental worry that motivates algorithmic fairness requires explicitly
comparing the change in relevant structural inequalities before and after
deployment. We propose a prospective methodology for estimating this
post-deployment change from pre-deployment data and knowledge about the
algorithmic policy. That requires a strategy for distinguishing between, and
accounting for, different kinds of performative effects. In this paper, we
focus on the algorithmic effect on the causally downstream outcome variable.
Throughout, we are guided by an application from public administration: the use
of algorithms to (1) predict who among the recently unemployed will stay
unemployed for the long term and (2) targeting them with labor market programs.
We illustrate our proposal by showing how to predict whether such policies will
exacerbate gender inequalities in the labor market.
- Abstract(参考訳): アルゴリズムに通知された政策の展開は、社会の構造への重要な介入である。
予測アルゴリズムの使用は、アルゴリズムが訓練されたものから社会的結果の分布をシフトさせることができる。
アルゴリズムフェアネスの研究は、通常、これらのパフォーマンス効果がトレーニングデータを引き起こす構造的不平等を悪化させるという懸念によって動機づけられる。
しかし、標準的なふりかえりの公平性方法論は、これらの効果を予測するのに不適当である。
予測アルゴリズムがトレーニングされた後に保持される静的公正性制約を課すが、それがデプロイされる前に、従って、パフォーマンス効果の前には、起動するチャンスがある。
しかし、トレーニング後の静的フェアネス基準を満たすことは、デプロイ後の不平等の悪化を避けるのに十分ではない。
アルゴリズム的公正を動機付ける基本的な懸念に対処するには、デプロイ前後の関連構造的不平等の変化を明示的に比較する必要がある。
本稿では,この後処理データからアルゴリズムポリシーに関する知識を推定するための予測手法を提案する。
これには、異なる種類のパフォーマンス効果を区別し、考慮する戦略が必要である。
本稿では,因果的下流結果変数に対するアルゴリズム的効果に着目した。
我々は、(1)最近失業した人のうちの誰が長期的に失業するかを予測するアルゴリズムの使用、(2)労働市場プログラムをターゲットとするアルゴリズムの使用など、公共行政からの申請によって導かれる。
我々は、こうした政策が労働市場の男女不平等を悪化させるかどうかを予測する方法を示した。
関連論文リスト
- Achieving Fairness in Predictive Process Analytics via Adversarial Learning [50.31323204077591]
本稿では、デバイアスフェーズを予測ビジネスプロセス分析に組み込むことの課題に対処する。
本研究の枠組みは, 4つのケーススタディで検証し, 予測値に対する偏り変数の寄与を著しく低減することを示した。
論文 参考訳(メタデータ) (2024-10-03T15:56:03Z) - Algorithmic Fairness in Performative Policy Learning: Escaping the Impossibility of Group Fairness [19.183108418687226]
我々は,社会分類問題におけるグループフェアネス保証の強化を実現するために,演奏性を活用するアルゴリズム的フェアネスプラクティスを開発した。
このアプローチの重要な利点は、矛盾するグループフェアネス定義の不整合を解決することができることである。
論文 参考訳(メタデータ) (2024-05-30T19:46:47Z) - From the Fair Distribution of Predictions to the Fair Distribution of Social Goods: Evaluating the Impact of Fair Machine Learning on Long-Term Unemployment [3.683202928838613]
この問題に対処するには,展開後のソーシャルグッズ分布の変化を予見する,予測公正性の概念が必要である,と我々は主張する。
私たちは、公共行政からの申請によって導かれています。最近失業した人のうちの誰が長期的に失業するかを予測するアルゴリズムの使用です。
我々は、このようなアルゴリズムによるインフォームドポリシーが、長期失業における男女不平等にどのように影響するかをシミュレートする。
論文 参考訳(メタデータ) (2024-01-25T14:17:11Z) - The Impact of Differential Feature Under-reporting on Algorithmic Fairness [86.275300739926]
解析的に抽出可能な差分特徴のアンダーレポーティングモデルを提案する。
そして、この種のデータバイアスがアルゴリズムの公正性に与える影響を特徴づける。
我々の結果は、実世界のデータ設定では、アンダーレポートが典型的に格差を増大させることを示している。
論文 参考訳(メタデータ) (2024-01-16T19:16:22Z) - The Relative Value of Prediction in Algorithmic Decision Making [0.0]
アルゴリズムによる意思決定における予測の相対的な価値は何か?
我々は,拡張アクセスの相対値を決定する,単純でシャープな条件を同定する。
本稿では,これらの理論的洞察を用いて,アルゴリズムによる意思決定システムの設計を現実的に導く方法について述べる。
論文 参考訳(メタデータ) (2023-12-13T20:52:45Z) - Non-Clairvoyant Scheduling with Predictions Revisited [77.86290991564829]
非論理的スケジューリングでは、優先度不明な処理条件でジョブをスケジューリングするためのオンライン戦略を見つけることが課題である。
我々はこのよく研究された問題を、アルゴリズム設計に(信頼できない)予測を統合する、最近人気の高い学習強化された設定で再検討する。
これらの予測には所望の特性があり, 高い性能保証を有するアルゴリズムと同様に, 自然な誤差測定が可能であることを示す。
論文 参考訳(メタデータ) (2022-02-21T13:18:11Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Biased Programmers? Or Biased Data? A Field Experiment in
Operationalizing AI Ethics [6.946103498518291]
我々は$approx$400のAIエンジニアによる数学性能のアルゴリズム予測820万を評価した。
偏りのある予測は、主に偏りのあるトレーニングデータによって引き起こされる。
より良いトレーニングデータの利点の3分の1は、新しい経済メカニズムによって得られる。
論文 参考訳(メタデータ) (2020-12-04T04:12:33Z) - All of the Fairness for Edge Prediction with Optimal Transport [11.51786288978429]
グラフにおけるエッジ予測の課題に対する公平性の問題について検討する。
本稿では,任意のグラフの隣接行列に対して,グループと個々の公正性のトレードオフを伴う埋め込み非依存の補修手順を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:33:13Z) - Policy Gradient for Continuing Tasks in Non-stationary Markov Decision
Processes [112.38662246621969]
強化学習は、マルコフ決定プロセスにおいて期待される累積報酬を最大化するポリシーを見つけることの問題を考える。
我々は、ポリシーを更新するために上昇方向として使用する値関数の偏りのないナビゲーション勾配を計算する。
ポリシー勾配型アルゴリズムの大きな欠点は、定常性の仮定が課せられない限り、それらがエピソジックなタスクに限定されていることである。
論文 参考訳(メタデータ) (2020-10-16T15:15:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。