論文の概要: Impact Remediation: Optimal Interventions to Reduce Inequality
- arxiv url: http://arxiv.org/abs/2107.00593v1
- Date: Thu, 1 Jul 2021 16:35:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-02 16:43:50.707184
- Title: Impact Remediation: Optimal Interventions to Reduce Inequality
- Title(参考訳): インパクト修復:不平等を減らすための最適な介入
- Authors: Lucius E.J. Bynum, Joshua R. Loftus, Julia Stoyanovich
- Abstract要約: 我々は、既存の現実世界の格差に対処するための新しいアルゴリズムフレームワークを開発する。
本フレームワークの目的は、現実世界の格差を計測し、最適な介入ポリシーを発見することである。
最適な政策学習に関するほとんどの研究とは対照的に、格差低減自体を目的として検討する。
- 参考スコア(独自算出の注目度): 10.806517393212491
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: A significant body of research in the data sciences considers unfair
discrimination against social categories such as race or gender that could
occur or be amplified as a result of algorithmic decisions. Simultaneously,
real-world disparities continue to exist, even before algorithmic decisions are
made. In this work, we draw on insights from the social sciences and humanistic
studies brought into the realm of causal modeling and constrained optimization,
and develop a novel algorithmic framework for tackling pre-existing real-world
disparities. The purpose of our framework, which we call the "impact
remediation framework," is to measure real-world disparities and discover the
optimal intervention policies that could help improve equity or access to
opportunity for those who are underserved with respect to an outcome of
interest. We develop a disaggregated approach to tackling pre-existing
disparities that relaxes the typical set of assumptions required for the use of
social categories in structural causal models. Our approach flexibly
incorporates counterfactuals and is compatible with various ontological
assumptions about the nature of social categories. We demonstrate impact
remediation with a real-world case study and compare our disaggregated approach
to an existing state-of-the-art approach, comparing its structure and resulting
policy recommendations. In contrast to most work on optimal policy learning, we
explore disparity reduction itself as an objective, explicitly focusing the
power of algorithms on reducing inequality.
- Abstract(参考訳): データサイエンスにおける重要な研究機関は、アルゴリズムによる決定の結果、人種や性別といった社会的カテゴリーに対する不公平な差別を考察している。
同時に、アルゴリズムが決定される前にも、現実世界の格差は存在し続ける。
本研究は,因果モデリングと制約付き最適化の領域にもたらされた社会科学とヒューマニズム研究からの洞察を引き合いに出し,既存の現実世界の格差に取り組むための新しいアルゴリズムフレームワークを開発する。
当社の枠組みは「インパクト・リメディエーション・フレームワーク」とよばれるもので、現実世界の格差を計測し、株式の改善や利害関係者の機会獲得に役立つ最適な介入政策を発見することを目的としています。
構造因果モデルにおける社会的カテゴリーの使用に必要な典型的な仮定セットを緩和する,既存の格差に取り組むための分散アプローチを開発した。
本手法は, 対物関係を柔軟に取り入れ, 社会的カテゴリーの性質に関する様々な存在論的仮定と相容れない。
我々は、実世界のケーススタディとインパクト修復を実証し、我々の非凝集アプローチと既存の最先端アプローチを比較し、その構造と政策レコメンデーションの結果を比較した。
最適な政策学習に関するほとんどの研究とは対照的に、不平等の削減にアルゴリズムの力を明確に焦点を絞った、不均衡の低減そのものを目的として探求する。
関連論文リスト
- An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Are we making progress in unlearning? Findings from the first NeurIPS unlearning competition [70.60872754129832]
アンラーニングに関する最初のNeurIPSコンペティションは、新しいアルゴリズムの開発を刺激しようとした。
世界中から約1200チームが参加した。
トップソリューションを分析し、アンラーニングのベンチマークに関する議論を掘り下げます。
論文 参考訳(メタデータ) (2024-06-13T12:58:00Z) - Reconciling Heterogeneous Effects in Causal Inference [44.99833362998488]
本稿では、機械学習におけるモデル乗法にReconcileアルゴリズムを適用し、因果推論における異種効果を再現する。
本研究の結果は,医療,保険,住宅などの高額な事業において,公正な成果の確保に有意な意味を持っている。
論文 参考訳(メタデータ) (2024-06-05T18:43:46Z) - Structural Interventions and the Dynamics of Inequality [0.0]
技術的ソリューションは、社会的変化を起こすために、外部のコンテキスト対応の介入と組み合わせなければならないことを示す。
この研究は、構造的不等式が、一見バイアスのない決定機構によって永続することができる方法を強調している。
論文 参考訳(メタデータ) (2024-06-03T13:44:38Z) - Reduced-Rank Multi-objective Policy Learning and Optimization [57.978477569678844]
実際には、因果研究者は先験を念頭において1つの結果を持っていない。
政府支援の社会福祉プログラムでは、政策立案者は貧困の多次元的性質を理解するために多くの成果を集めている。
本稿では、最適政策学習の文脈において、複数の結果に対するデータ駆動型次元性推論手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T08:16:30Z) - Algorithmic Fairness: A Tolerance Perspective [31.882207568746168]
この調査はアルゴリズムの公正性に関する既存の文献を掘り下げ、特にその多面的な社会的影響を強調している。
我々は「寛容」に基づく新しい分類法を導入し、公正な結果の変動が許容される度合いとして定義する。
我々の体系的なレビューは多様な産業をカバーし、アルゴリズムによる意思決定と社会的株式のバランスに関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-04-26T08:16:54Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - The Equity Framework: Fairness Beyond Equalized Predictive Outcomes [0.0]
意思決定者が物理的・社会的環境を描写するモデルから逸脱するモデルを使用すると生じる公平性の問題について検討する。
モデルへの平等なアクセス、モデルからの平等な結果、モデルの平等な利用を考慮に入れたEquity Frameworkを定式化する。
論文 参考訳(メタデータ) (2022-04-18T20:49:51Z) - Building a Foundation for Data-Driven, Interpretable, and Robust Policy
Design using the AI Economist [67.08543240320756]
AIエコノミストフレームワークは,2段階強化学習とデータ駆動型シミュレーションを用いて,効果的な,柔軟な,解釈可能なポリシー設計を可能にする。
RLを用いて訓練されたログリニア政策は、過去の結果と比較して、公衆衛生と経済の両面から社会福祉を著しく改善することがわかった。
論文 参考訳(メタデータ) (2021-08-06T01:30:41Z) - Algorithmic Fairness from a Non-ideal Perspective [26.13086713244309]
提案する公正な機械学習アルゴリズムの欠点は、理想的なアプローチが直面するより広範な問題を反映している、と我々は主張する。
我々は、誤った解の害、不合理な結果の再解釈、今後の研究の方向性について批判的な議論を締めくくった。
論文 参考訳(メタデータ) (2020-01-08T18:44:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。