論文の概要: Fairness Shields: Safeguarding against Biased Decision Makers
- arxiv url: http://arxiv.org/abs/2412.11994v1
- Date: Mon, 16 Dec 2024 17:21:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:58:08.064668
- Title: Fairness Shields: Safeguarding against Biased Decision Makers
- Title(参考訳): フェアネスシールド:バイアスド・デシジョン・メーカーに対する保護
- Authors: Filip Cano, Thomas A. Henzinger, Bettina Könighofer, Konstantin Kueffner, Kaushik Mallik,
- Abstract要約: 我々は、シンボル的意思決定者が別のデプロイされたブラックボックス意思決定者の決定順序を監視するフェアネス・シールドを導入する。
フェアネスシールドを計算するための4つの異なるアルゴリズムを提案し、そのうちの1つは固定された水平線に対するフェアネスを保証する。
我々のアルゴリズムは計算コストと最適性保証のレベルが異なる有界-水平最適制御問題の異なるインスタンスを解く。
- 参考スコア(独自算出の注目度): 6.4181048948049595
- License:
- Abstract: As AI-based decision-makers increasingly influence human lives, it is a growing concern that their decisions are often unfair or biased with respect to people's sensitive attributes, such as gender and race. Most existing bias prevention measures provide probabilistic fairness guarantees in the long run, and it is possible that the decisions are biased on specific instances of short decision sequences. We introduce fairness shielding, where a symbolic decision-maker -- the fairness shield -- continuously monitors the sequence of decisions of another deployed black-box decision-maker, and makes interventions so that a given fairness criterion is met while the total intervention costs are minimized. We present four different algorithms for computing fairness shields, among which one guarantees fairness over fixed horizons, and three guarantee fairness periodically after fixed intervals. Given a distribution over future decisions and their intervention costs, our algorithms solve different instances of bounded-horizon optimal control problems with different levels of computational costs and optimality guarantees. Our empirical evaluation demonstrates the effectiveness of these shields in ensuring fairness while maintaining cost efficiency across various scenarios.
- Abstract(参考訳): AIベースの意思決定者が人間の生活に影響を及ぼすにつれ、性別や人種といった人々の敏感な属性に対して、彼らの決定が不公平である、あるいは偏見がある、という懸念が高まっている。
既存のバイアス防止対策のほとんどは、長期的には確率的公正性を保証するものであり、決定は短い決定シーケンスの特定の事例に偏っている可能性がある。
フェアネス・シールドは、あるシンボル的意思決定者(フェアネス・シールド)が、別のデプロイされたブラックボックス決定者の決定の順序を継続的に監視し、与えられたフェアネス基準を満たすように介入し、全体の介入コストを最小限に抑える。
本研究は,固定地平線上での公平性を保証する正当性シールドの計算アルゴリズムを4種類提案し,定間隔後における正当性保証を3種類提案する。
今後の意思決定と介入コストの分布から,アルゴリズムは計算コストと最適性保証のレベルが異なる境界-水平最適制御問題の異なる事例を解く。
実証的な評価は, 様々なシナリオにおけるコスト効率を維持しつつ, 公平性を確保するためのシールドの有効性を示すものである。
関連論文リスト
- (Un)certainty of (Un)fairness: Preference-Based Selection of Certainly Fair Decision-Makers [0.0]
公正度指標は、さまざまな領域にわたる意思決定プロセスにおける差別と偏見を評価するために使用される。
我々は差別評価を強化するために格差の不確実性を定量化する。
我々は、意思決定者よりも好みを定義し、最適な意思決定者を選択するためにブルートフォースを利用する。
論文 参考訳(メタデータ) (2024-09-19T11:44:03Z) - Remembering to Be Fair: Non-Markovian Fairness in Sequential Decision Making [15.289872878202399]
我々は、連続的な意思決定の文脈における非マルコフ的公正の概念を探求する。
非マルコフ的フェアネスの性質を同定し、長期的、時空的、周期的、有界公正の概念を含む。
フェアポリシの合成において,サンプル効率を向上させるために,トレーニングデータを自動的に拡張するFairQCMアルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-12-08T01:04:36Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Robustness Implies Fairness in Casual Algorithmic Recourse [13.86376549140248]
アルゴリズムリコースは、決定が重大な結果をもたらす状況において、ブラックボックス決定プロセスの内部動作を明らかにすることを目的としている。
効果的な治療を確実にするためには、提案された介入は低コストであるだけでなく、堅牢で公平でなければならない。
本研究では,因果的アルゴリズムによる会話における個人的公正性と敵対的ロバスト性の概念について検討する。
論文 参考訳(メタデータ) (2023-02-07T13:40:56Z) - Multi-Stage Decentralized Matching Markets: Uncertain Preferences and
Strategic Behaviors [91.3755431537592]
本稿では、現実世界のマッチング市場で最適な戦略を学ぶためのフレームワークを開発する。
我々は,不確実性レベルが特徴の福祉対フェアネストレードオフが存在することを示す。
シングルステージマッチングと比較して、マルチステージマッチングで参加者がより良くなることを証明します。
論文 参考訳(メタデータ) (2021-02-13T19:25:52Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z) - Fair Policy Targeting [0.6091702876917281]
社会福祉プログラムにおける個人に対する介入を標的とする主な関心事の1つは差別である。
本稿では,公平かつ効率的な処理割り当てルールの設計に関する課題に対処する。
論文 参考訳(メタデータ) (2020-05-25T20:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。