論文の概要: Fairness in Algorithmic Recourse Through the Lens of Substantive
Equality of Opportunity
- arxiv url: http://arxiv.org/abs/2401.16088v1
- Date: Mon, 29 Jan 2024 11:55:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 15:03:14.782933
- Title: Fairness in Algorithmic Recourse Through the Lens of Substantive
Equality of Opportunity
- Title(参考訳): 機会の実体的平等のレンズを通してのアルゴリズム的会話の公正性
- Authors: Andrew Bell, Joao Fonseca, Carlo Abrate, Francesco Bonchi, and Julia
Stoyanovich
- Abstract要約: アルゴリズムによる会話は、AIシステムとのインタラクションにおいて人に対してエージェンシーを与える手段として注目を集めている。
近年の研究では、個人の初期状況の違いにより、会話自体が不公平である可能性があることが示されている。
個人が行動するのに時間がかかるほど、設定が変更される可能性があるからだ。
- 参考スコア(独自算出の注目度): 15.78130132380848
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic recourse -- providing recommendations to those affected
negatively by the outcome of an algorithmic system on how they can take action
and change that outcome -- has gained attention as a means of giving persons
agency in their interactions with artificial intelligence (AI) systems. Recent
work has shown that even if an AI decision-making classifier is ``fair''
(according to some reasonable criteria), recourse itself may be unfair due to
differences in the initial circumstances of individuals, compounding
disparities for marginalized populations and requiring them to exert more
effort than others. There is a need to define more methods and metrics for
evaluating fairness in recourse that span a range of normative views of the
world, and specifically those that take into account time. Time is a critical
element in recourse because the longer it takes an individual to act, the more
the setting may change due to model or data drift.
This paper seeks to close this research gap by proposing two notions of
fairness in recourse that are in normative alignment with substantive equality
of opportunity, and that consider time. The first considers the (often
repeated) effort individuals exert per successful recourse event, and the
second considers time per successful recourse event. Building upon an
agent-based framework for simulating recourse, this paper demonstrates how much
effort is needed to overcome disparities in initial circumstances. We then
proposes an intervention to improve the fairness of recourse by rewarding
effort, and compare it to existing strategies.
- Abstract(参考訳): 人工知能(ai)システムとのインタラクションにおいて、どのように行動し、その結果を変えるかに関するアルゴリズムシステムの結果に負の影響を受けている人たちへの推奨を提供するアルゴリズム的リコースが、人間にエージェントを与える手段として注目を集めている。
近年の研究では、ai意思決定分類器が「fair」(合理的な基準によっては)であるとしても、リコース自体は個人の初期状況の違いによる不公平であり、辺境人口の格差を和らげ、他人よりも多くの努力をするよう要求している。
世界の規範的な視点、特に時間を考慮した視点にまたがるリコースにおける公平性を評価するための、より多くの方法とメトリクスを定義する必要がある。
個人が行動するのに時間が掛かるほど、モデルやデータドリフトによって設定が変更される可能性があるからだ。
本稿では,この研究ギャップを解消するために,機会の実質的平等に規範的に整合した会話における公平性という2つの概念と,時間を考えることを提案する。
第1は、成功したリコースイベント毎に個人が実施する(しばしば繰り返される)努力を考慮し、第2は成功したリコースイベント毎に時間を考慮します。
本稿では,リアクションをシミュレートするエージェントベースのフレームワークを構築し,初期状況における差異を克服するためにどれだけの労力が必要かを示す。
そこで我々は, 努力を報い, 行動の公平性を改善するための介入を提案し, 既存の戦略と比較した。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Setting the Right Expectations: Algorithmic Recourse Over Time [16.930905275894183]
本稿では,連続的に変化する環境がアルゴリズムの会話に与える影響を研究するためのエージェント・ベース・シミュレーション・フレームワークを提案する。
この結果から,特定のパラメータ化の小さなセットだけが,時間とともにエージェントに信頼性のあるアルゴリズム的リコースをもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2023-09-13T14:04:15Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Algorithmic Fairness in Business Analytics: Directions for Research and
Practice [24.309795052068388]
本稿では,アルゴリズムフェアネスの先見的,BAに着目したレビューを行う。
まず、バイアスの源泉と測定方法、およびバイアス緩和アルゴリズムに関する最先端の研究について概説する。
次に、ユーティリティ・フェアネスの関係について詳細な議論を行い、これらの2つの構成要素間のトレードオフの頻繁な仮定は、しばしば間違いまたは近視的であることを強調した。
論文 参考訳(メタデータ) (2022-07-22T10:21:38Z) - Unfairness Despite Awareness: Group-Fair Classification with Strategic
Agents [37.31138342300617]
戦略エージェントは、より良好な結果を得るために観察された特徴ベクトルを操作する能力とインセンティブの両方を持っている可能性があることを示す。
さらに、有利な群が過剰に表現される領域で公平な学習を行う際に、公平な分類器の選択性が増大し、したがって公正さが失われることが示される。
論文 参考訳(メタデータ) (2021-12-06T02:42:43Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z) - Case Study: Predictive Fairness to Reduce Misdemeanor Recidivism Through
Social Service Interventions [4.651149317838983]
ロサンゼルス市検事局は、新しいRecidivism Reduction and Drug Diversion Unit (R2D2)を創設した。
本稿では,機械学習に基づく意思決定に予測的株式を組み込むケーススタディとして,この新しいユニットとのコラボレーションについて述べる。
論文 参考訳(メタデータ) (2020-01-24T23:52:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。