論文の概要: Strategic Costs of Perceived Bias in Fair Selection
- arxiv url: http://arxiv.org/abs/2510.20606v1
- Date: Thu, 23 Oct 2025 14:38:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:18.132085
- Title: Strategic Costs of Perceived Bias in Fair Selection
- Title(参考訳): 公正選択における知覚バイアスの戦略的コスト
- Authors: L. Elisa Celis, Lingxiao Huang, Milind Sohoni, Nisheeth K. Vishnoi,
- Abstract要約: メリトクラテスの制度は、技術と努力を公平に報酬することを目的としている。
人種、性別、階級の相違は この理想に挑戦します
我々は,異なる社会経済集団の候補者が選択後の知覚値が異なるゲーム理論モデルを構築した。
- 参考スコア(独自算出の注目度): 25.24305795734348
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Meritocratic systems, from admissions to hiring, aim to impartially reward skill and effort. Yet persistent disparities across race, gender, and class challenge this ideal. Some attribute these gaps to structural inequality; others to individual choice. We develop a game-theoretic model in which candidates from different socioeconomic groups differ in their perceived post-selection value--shaped by social context and, increasingly, by AI-powered tools offering personalized career or salary guidance. Each candidate strategically chooses effort, balancing its cost against expected reward; effort translates into observable merit, and selection is based solely on merit. We characterize the unique Nash equilibrium in the large-agent limit and derive explicit formulas showing how valuation disparities and institutional selectivity jointly determine effort, representation, social welfare, and utility. We further propose a cost-sensitive optimization framework that quantifies how modifying selectivity or perceived value can reduce disparities without compromising institutional goals. Our analysis reveals a perception-driven bias: when perceptions of post-selection value differ across groups, these differences translate into rational differences in effort, propagating disparities backward through otherwise "fair" selection processes. While the model is static, it captures one stage of a broader feedback cycle linking perceptions, incentives, and outcome--bridging rational-choice and structural explanations of inequality by showing how techno-social environments shape individual incentives in meritocratic systems.
- Abstract(参考訳): 入社から雇用まで、メリトクラテスの制度は、技術と努力を公平に報酬することを目的としている。
しかし、人種、性別、階級の相違は、この理想に挑戦する。
これらのギャップは構造的不平等に起因しているものもあれば、個々の選択に起因しているものもある。
異なる社会経済集団の候補者が、社会的文脈によって形づくられたポスト選択価値と、パーソナライズされたキャリアや給与のガイダンスを提供するAIツールによって、認識されるポスト選択価値に異なるゲーム理論モデルを開発する。
それぞれの候補者は努力を戦略的に選択し、そのコストと期待される報酬のバランスをとる。
我々は,大規模エージェントの限界におけるユニークなナッシュ均衡を特徴付け,評価格差と制度選択性がいかに努力,表現,社会福祉,ユーティリティを共同で決定するかを示す明示的な公式を導出する。
さらに,選択性や知覚値の修正が,制度目標を損なうことなく,格差を軽減できるようなコスト依存型最適化フレームワークを提案する。
選択後値の知覚がグループによって異なる場合、これらの差は作業の合理的な差異に変換され、他の「公正な」選択プロセスを通じて後方に格差を伝播する。
モデルが静的である一方で、認識、インセンティブ、成果をリンクする幅広いフィードバックサイクルの1段階を捉え、技術的社会的環境が功利主義システムにおける個々のインセンティブをいかに形作るかを示すことによって、合理的選択と不平等の構造的説明をブレンドする。
関連論文リスト
- The AI Fairness Myth: A Position Paper on Context-Aware Bias [0.0]
フェアネスは、歴史的に疎外されたグループに対して、意図的かつ文脈に配慮した優遇措置を必要とする場合もある、と我々は主張する。
偏見を排除の欠陥と見なすのではなく、是正的、意図的な偏見を受け入れる枠組みを提案する。
論文 参考訳(メタデータ) (2025-05-02T02:47:32Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Social Diversity Reduces the Complexity and Cost of Fostering Fairness [63.70639083665108]
不完全な情報や公平性の柔軟な基準を前提とした干渉機構の効果について検討する。
多様性の役割を定量化し、情報収集の必要性を減らす方法を示す。
この結果から,多様性が変化し,公正性向上を目指す機関に新たなメカニズムが開放されることが示唆された。
論文 参考訳(メタデータ) (2022-11-18T21:58:35Z) - Fairness in Selection Problems with Strategic Candidates [9.4148805532663]
選択問題における戦略的側面が公平性に与える影響について検討する。
合理的な候補者の人口は、彼らの品質を高めるために努力レベルを選択することで競います。
我々は、異なるパラメータのレジームにおけるこのゲームの(一意)平衡を特徴づける。
論文 参考訳(メタデータ) (2022-05-24T17:03:32Z) - Addressing Strategic Manipulation Disparities in Fair Classification [15.032416453073086]
少数派の個人が、機能更新に高額な費用を払っていることがよく示されます。
マイノリティグループに対する戦略的操作コストを低減させる分類器を構築するための制約付き最適化フレームワークを提案する。
実世界の複数のデータセットに対して,本手法の有効性を実証的に示す。
論文 参考訳(メタデータ) (2022-05-22T14:59:40Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - The Price of Diversity [3.136861161060885]
性別、人種、民族に関する体系的な偏見は、しばしば無意識であり、個人間の選択を含むデータセットで一般的である。
最適反転結果ラベルと学習分類モデルに基づく新しい最適化手法を提案する。
本研究は, 仮釈放, 入場許可, 貸与決定からなる実世界の3つのデータセットのケーススタディである。
論文 参考訳(メタデータ) (2021-07-03T02:23:27Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - End-to-End Learning and Intervention in Games [60.41921763076017]
ゲームにおける学習と介入のための統一的なフレームワークを提供する。
明示的および暗黙的な区別に基づく2つのアプローチを提案する。
分析結果は、実世界のいくつかの問題を用いて検証される。
論文 参考訳(メタデータ) (2020-10-26T18:39:32Z) - On Fair Selection in the Presence of Implicit Variance [17.517529275692322]
我々は、暗黙のバイアスがなくても、異なるグループからの候補者の質の推定は、別の基本的な方法、すなわち、その分散によって異なるかもしれないと論じる。
本稿では,グループ非依存正規分布から抽出される真の潜伏品質を有する簡易モデルを提案する。
人口パーティメカニズムが常に選択ユーティリティを増大させる一方で、任意の$gamma$-ruleが弱くなることを示す。
論文 参考訳(メタデータ) (2020-06-24T13:08:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。