論文の概要: The Equity Framework: Fairness Beyond Equalized Predictive Outcomes
- arxiv url: http://arxiv.org/abs/2205.01072v1
- Date: Mon, 18 Apr 2022 20:49:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-09 00:12:03.315221
- Title: The Equity Framework: Fairness Beyond Equalized Predictive Outcomes
- Title(参考訳): Equity Framework: 平等な予測結果を超える公平性
- Authors: Keziah Naggita and J. Ceasar Aguma
- Abstract要約: 意思決定者が物理的・社会的環境を描写するモデルから逸脱するモデルを使用すると生じる公平性の問題について検討する。
モデルへの平等なアクセス、モデルからの平等な結果、モデルの平等な利用を考慮に入れたEquity Frameworkを定式化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine Learning (ML) decision-making algorithms are now widely used in
predictive decision-making, for example, to determine who to admit and give a
loan. Their wide usage and consequential effects on individuals led the ML
community to question and raise concerns on how the algorithms differently
affect different people and communities. In this paper, we study fairness
issues that arise when decision-makers use models (proxy models) that deviate
from the models that depict the physical and social environment in which the
decisions are situated (intended models). We also highlight the effect of
obstacles on individual access and utilization of the models. To this end, we
formulate an Equity Framework that considers equal access to the model, equal
outcomes from the model, and equal utilization of the model, and
consequentially achieves equity and higher social welfare than current fairness
notions that aim for equality. We show how the three main aspects of the
framework are connected and provide an equity scoring algorithm and questions
to guide decision-makers towards equitable decision-making. We show how failure
to consider access, outcome, and utilization would exacerbate proxy gaps
leading to an infinite inequity loop that reinforces structural inequities
through inaccurate and incomplete ground truth curation. We, therefore,
recommend a more critical look at the model design and its effect on equity and
a shift towards equity achieving predictive decision-making models.
- Abstract(参考訳): 機械学習(ml)意思決定アルゴリズムは、例えば、誰が承認し、融資するかを決定するために、予測的意思決定に広く使われている。
彼らの幅広い使用状況と個人への影響により、mlコミュニティは、アルゴリズムが異なる人々やコミュニティにどのように影響するかを疑問視し、懸念を提起した。
本稿では,意思決定者が決定を行う物理的・社会的環境(意図的モデル)を描写するモデルから逸脱するモデル(プロキシモデル)を使用する場合に生じる公平性の問題について検討する。
また,モデルの個々のアクセスと利用に対する障害の影響を強調した。
この目的のために、モデルへの平等なアクセス、モデルからの平等な結果、モデルの平等な利用を考慮したEquity Frameworkを定式化し、平等を目指す現在の公正概念よりも公平で高い社会福祉を実現する。
フレームワークの3つの主要な側面がいかに結びついているかを示し、公平な意思決定に向けて意思決定者を支援するための評価アルゴリズムと質問を提供する。
我々は、アクセス、結果、利用の失敗が、不正確で不完全な基底真理のキュレーションを通じて構造的不等式を強化する無限の不等式ループにつながるプロキシギャップを悪化させることを示す。
したがって、モデル設計とその株式への影響についてより批判的な見方をし、予測的意思決定モデルを達成するための株式へのシフトを推奨する。
関連論文リスト
- From Efficiency to Equity: Measuring Fairness in Preference Learning [3.2132738637761027]
不平等とロウルシアン正義の経済理論に触発された嗜好学習モデルの公平性を評価する。
Gini Coefficient, Atkinson Index, Kuznets Ratio を用いて,これらのモデルの公平性を定量化するための指標を提案する。
論文 参考訳(メタデータ) (2024-10-24T15:25:56Z) - Structural Interventions and the Dynamics of Inequality [0.0]
技術的ソリューションは、社会的変化を起こすために、外部のコンテキスト対応の介入と組み合わせなければならないことを示す。
この研究は、構造的不等式が、一見バイアスのない決定機構によって永続することができる方法を強調している。
論文 参考訳(メタデータ) (2024-06-03T13:44:38Z) - Modeling Boundedly Rational Agents with Latent Inference Budgets [56.24971011281947]
エージェントの計算制約を明示的にモデル化する潜在推論予算モデル(L-IBM)を導入する。
L-IBMは、最適なアクターの多様な集団のデータを使ってエージェントモデルを学ぶことができる。
我々は,L-IBMが不確実性の下での意思決定のボルツマンモデルに適合しているか,あるいは上回っていることを示す。
論文 参考訳(メタデータ) (2023-12-07T03:55:51Z) - Bridging the gap: Towards an Expanded Toolkit for AI-driven Decision-Making in the Public Sector [6.693502127460251]
AIによる意思決定システムは、刑事司法、社会福祉、金融詐欺検出、公衆衛生などの分野に適用される。
これらのシステムは、機械学習(ML)モデルと公共セクターの意思決定の複雑な現実を整合させるという課題に直面している。
本稿では,データ側における分散シフトやラベルバイアス,過去の意思決定の影響,モデル出力側における競合する目標や人道支援など,不一致が発生する可能性のある5つの重要な課題について検討する。
論文 参考訳(メタデータ) (2023-10-29T17:44:48Z) - On Prediction-Modelers and Decision-Makers: Why Fairness Requires More
Than a Fair Prediction Model [1.3996171129586732]
予測に基づく意思決定の分野における暗黙の曖昧さは、予測の概念と決定の関係を考察する。
これら2つの要素が予測に基づく決定システムの最終的な公平性にどう影響するかを示す。
本稿では,予測に基づく意思決定において公平性を生み出す概念論理の理解と推論を可能にするフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-09T10:34:42Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Fairness Increases Adversarial Vulnerability [50.90773979394264]
フェアネスとロバストネスの間に二分法が存在することを示し、フェアネスを達成するとモデルロバストネスを減少させる。
非線形モデルと異なるアーキテクチャの実験は、複数の視覚領域における理論的発見を検証する。
フェアネスとロバストネスの良好なトレードオフを達成するためのモデルを構築するための,シンプルで効果的なソリューションを提案する。
論文 参考訳(メタデータ) (2022-11-21T19:55:35Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。