論文の概要: Impact Remediation: Optimal Interventions to Reduce Inequality
- arxiv url: http://arxiv.org/abs/2107.00593v1
- Date: Thu, 1 Jul 2021 16:35:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-02 16:43:50.707184
- Title: Impact Remediation: Optimal Interventions to Reduce Inequality
- Title(参考訳): インパクト修復:不平等を減らすための最適な介入
- Authors: Lucius E.J. Bynum, Joshua R. Loftus, Julia Stoyanovich
- Abstract要約: 我々は、既存の現実世界の格差に対処するための新しいアルゴリズムフレームワークを開発する。
本フレームワークの目的は、現実世界の格差を計測し、最適な介入ポリシーを発見することである。
最適な政策学習に関するほとんどの研究とは対照的に、格差低減自体を目的として検討する。
- 参考スコア(独自算出の注目度): 10.806517393212491
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: A significant body of research in the data sciences considers unfair
discrimination against social categories such as race or gender that could
occur or be amplified as a result of algorithmic decisions. Simultaneously,
real-world disparities continue to exist, even before algorithmic decisions are
made. In this work, we draw on insights from the social sciences and humanistic
studies brought into the realm of causal modeling and constrained optimization,
and develop a novel algorithmic framework for tackling pre-existing real-world
disparities. The purpose of our framework, which we call the "impact
remediation framework," is to measure real-world disparities and discover the
optimal intervention policies that could help improve equity or access to
opportunity for those who are underserved with respect to an outcome of
interest. We develop a disaggregated approach to tackling pre-existing
disparities that relaxes the typical set of assumptions required for the use of
social categories in structural causal models. Our approach flexibly
incorporates counterfactuals and is compatible with various ontological
assumptions about the nature of social categories. We demonstrate impact
remediation with a real-world case study and compare our disaggregated approach
to an existing state-of-the-art approach, comparing its structure and resulting
policy recommendations. In contrast to most work on optimal policy learning, we
explore disparity reduction itself as an objective, explicitly focusing the
power of algorithms on reducing inequality.
- Abstract(参考訳): データサイエンスにおける重要な研究機関は、アルゴリズムによる決定の結果、人種や性別といった社会的カテゴリーに対する不公平な差別を考察している。
同時に、アルゴリズムが決定される前にも、現実世界の格差は存在し続ける。
本研究は,因果モデリングと制約付き最適化の領域にもたらされた社会科学とヒューマニズム研究からの洞察を引き合いに出し,既存の現実世界の格差に取り組むための新しいアルゴリズムフレームワークを開発する。
当社の枠組みは「インパクト・リメディエーション・フレームワーク」とよばれるもので、現実世界の格差を計測し、株式の改善や利害関係者の機会獲得に役立つ最適な介入政策を発見することを目的としています。
構造因果モデルにおける社会的カテゴリーの使用に必要な典型的な仮定セットを緩和する,既存の格差に取り組むための分散アプローチを開発した。
本手法は, 対物関係を柔軟に取り入れ, 社会的カテゴリーの性質に関する様々な存在論的仮定と相容れない。
我々は、実世界のケーススタディとインパクト修復を実証し、我々の非凝集アプローチと既存の最先端アプローチを比較し、その構造と政策レコメンデーションの結果を比較した。
最適な政策学習に関するほとんどの研究とは対照的に、不平等の削減にアルゴリズムの力を明確に焦点を絞った、不均衡の低減そのものを目的として探求する。
関連論文リスト
- Tight Guarantees for Interactive Decision Making with the
Decision-Estimation Coefficient [51.37720227675476]
我々は、決定推定係数の新たな変種を導入し、それを用いて、3つの面における事前の作業を改善する新しい下界を導出する。
我々は同じ量でスケールした後悔について上界を与え、フォスター等における上界と下界の間のギャップの1つを除いて全てを閉じる。
この結果は、後悔のフレームワークとPACフレームワークの両方に適用され、我々が期待するいくつかの新しい分析とアルゴリズム設計技術を利用して、より広範な利用が期待できる。
論文 参考訳(メタデータ) (2023-01-19T18:24:08Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - On the Complexity of Adversarial Decision Making [101.14158787665252]
決定推定係数は, 相手の意思決定に対する後悔度を低く抑えるのに必要であり, 十分であることを示す。
我々は、決定推定係数を他のよく知られた複雑性尺度の変種に結びつける新しい構造結果を提供する。
論文 参考訳(メタデータ) (2022-06-27T06:20:37Z) - The Equity Framework: Fairness Beyond Equalized Predictive Outcomes [0.0]
意思決定者が物理的・社会的環境を描写するモデルから逸脱するモデルを使用すると生じる公平性の問題について検討する。
モデルへの平等なアクセス、モデルからの平等な結果、モデルの平等な利用を考慮に入れたEquity Frameworkを定式化する。
論文 参考訳(メタデータ) (2022-04-18T20:49:51Z) - Building a Foundation for Data-Driven, Interpretable, and Robust Policy
Design using the AI Economist [67.08543240320756]
AIエコノミストフレームワークは,2段階強化学習とデータ駆動型シミュレーションを用いて,効果的な,柔軟な,解釈可能なポリシー設計を可能にする。
RLを用いて訓練されたログリニア政策は、過去の結果と比較して、公衆衛生と経済の両面から社会福祉を著しく改善することがわかった。
論文 参考訳(メタデータ) (2021-08-06T01:30:41Z) - Fairness Perceptions of Algorithmic Decision-Making: A Systematic Review
of the Empirical Literature [0.0]
アルゴリズムによる意思決定(ADM)は、人々の日常生活をますます形作る。
学者や政策立案者が要求する人間中心のアプローチは、人々の公正な認識を考慮する必要があります。
アルゴリズム公平性の認識に関する既存の経験的洞察の包括的で体系的な文献レビューを提供します。
論文 参考訳(メタデータ) (2021-03-22T17:12:45Z) - Towards Understanding the Adversarial Vulnerability of Skeleton-based
Action Recognition [133.35968094967626]
骨格に基づく行動認識は、動的状況への強い適応性から注目を集めている。
ディープラーニング技術の助けを借りて、かなり進歩し、現在、良識のある環境で約90%の精度を達成している。
異なる対角的環境下での骨格に基づく行動認識の脆弱性に関する研究はいまだ研究されていない。
論文 参考訳(メタデータ) (2020-05-14T17:12:52Z) - Balancing Competing Objectives with Noisy Data: Score-Based Classifiers
for Welfare-Aware Machine Learning [43.518329314620416]
我々は、私的目的(利益など)と公共目的(社会福祉など)とを明確にトレードオフするアルゴリズム政策を研究する。
我々の結果は、社会福祉に影響を与える決定に機械学習を使うことにおける本質的にのトレードオフを浮き彫りにした。
論文 参考訳(メタデータ) (2020-03-15T02:49:39Z) - No computation without representation: Avoiding data and algorithm
biases through diversity [11.12971845021808]
学術的および専門的なコンピューティング分野における多様性の欠如と、データセットで発生するバイアスのタイプと幅の関連性を引き合いに出す。
これらの教訓を利用して、コンピューティングコミュニティが多様性を高めるための具体的なステップを提供するレコメンデーションを開発する。
論文 参考訳(メタデータ) (2020-02-26T23:07:39Z) - Learning Overlapping Representations for the Estimation of
Individualized Treatment Effects [97.42686600929211]
観測データから代替案の可能性を推定することは難しい問題である。
入力のドメイン不変表現を学習するアルゴリズムは、しばしば不適切であることを示す。
我々は,様々なベンチマークデータセットの最先端性を大幅に向上させる,ディープカーネル回帰アルゴリズムと後続正規化フレームワークを開発した。
論文 参考訳(メタデータ) (2020-01-14T12:56:29Z) - Algorithmic Fairness from a Non-ideal Perspective [26.13086713244309]
提案する公正な機械学習アルゴリズムの欠点は、理想的なアプローチが直面するより広範な問題を反映している、と我々は主張する。
我々は、誤った解の害、不合理な結果の再解釈、今後の研究の方向性について批判的な議論を締めくくった。
論文 参考訳(メタデータ) (2020-01-08T18:44:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。