論文の概要: Matchings Under Biased and Correlated Evaluations
- arxiv url: http://arxiv.org/abs/2510.23628v1
- Date: Fri, 24 Oct 2025 00:33:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.295093
- Title: Matchings Under Biased and Correlated Evaluations
- Title(参考訳): バイアスおよび関連性評価によるマッチング
- Authors: Amit Kumar, Nisheeth K. Vishnoi,
- Abstract要約: 2つの異なるグループからの候補を評価できる2施設の安定マッチングモデルについて検討した。
マッチングプロセスによって選択された不利な候補に対する表現比、すなわち不利な候補の割合について検討する。
- 参考スコア(独自算出の注目度): 18.002268181853527
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study a two-institution stable matching model in which candidates from two distinct groups are evaluated using partially correlated signals that are group-biased. This extends prior work (which assumes institutions evaluate candidates in an identical manner) to a more realistic setting in which institutions rely on overlapping, but independently processed, criteria. These evaluations could consist of a variety of informative tools such as standardized tests, shared recommendation systems, or AI-based assessments with local noise. Two key parameters govern evaluations: the bias parameter $\beta \in (0,1]$, which models systematic disadvantage faced by one group, and the correlation parameter $\gamma \in [0,1]$, which captures the alignment between institutional rankings. We study the representation ratio, i.e., the ratio of disadvantaged to advantaged candidates selected by the matching process in this setting. Focusing on a regime in which all candidates prefer the same institution, we characterize the large-market equilibrium and derive a closed-form expression for the resulting representation ratio. Prior work shows that when $\gamma = 1$, this ratio scales linearly with $\beta$. In contrast, we show that the representation ratio increases nonlinearly with $\gamma$ and even modest losses in correlation can cause sharp drops in the representation ratio. Our analysis identifies critical $\gamma$-thresholds where institutional selection behavior undergoes discrete transitions, and reveals structural conditions under which evaluator alignment or bias mitigation are most effective. Finally, we show how this framework and results enable interventions for fairness-aware design in decentralized selection systems.
- Abstract(参考訳): 2つの異なるグループからの候補をグループバイアスのある部分相関信号を用いて評価する2施設間安定マッチングモデルについて検討した。
これは、事前の作業(同じ方法で候補者を評価すると仮定する)を、機関が重複するが独立的に処理された基準に依存する、より現実的な環境に拡張する。
これらの評価は、標準化されたテスト、共有レコメンデーションシステム、ローカルノイズによるAIベースのアセスメントなど、さまざまな情報ツールから構成される可能性がある。
バイアスパラメータ $\beta \in (0,1]$ と相関パラメータ $\gamma \in [0,1]$ である。
この設定において、マッチングプロセスによって選択された不利な候補に対する表現比、すなわち不利な候補の割合について検討する。
すべての候補者が同じ制度を好む体制に焦点をあてて、大市場均衡を特徴付け、結果の表現比に対する閉形式表現を導出する。
以前の研究によると、$\gamma = 1$ のとき、この比は $\beta$ と線形にスケールする。
対照的に、表現比は$\gamma$で非線形に増加し、相関の質素な損失さえも表現比の急激な低下を引き起こす可能性があることを示す。
本分析では, 組織選択行動が離散遷移する臨界$\gamma$-thresholdsを同定し, 評価器アライメントやバイアス緩和が最も効果的である構造条件を明らかにする。
最後に、このフレームワークと結果が分散選択システムにおける公平性を考慮した設計の介入を可能にする方法を示す。
関連論文リスト
- Reference-Free Rating of LLM Responses via Latent Information [53.463883683503106]
本研究では,判断モデルに対して,自由テキスト応答にQuattスケールのスコアを割り当てるよう依頼する一般的な実践について検討する。
次に、内部モデル信号からスカラー評価を導出する潜在裁判官を提案し、評価する。
ペアとシングルレーティングのベンチマークの幅広いスイートの中で、潜在メソッドは標準のプロンプトにマッチするか、超えている。
論文 参考訳(メタデータ) (2025-09-29T12:15:52Z) - hyperFA*IR: A hypergeometric approach to fair rankings with finite candidate pool [0.0]
本稿では,候補の有限集合から抽出したランキングの公平性を評価するためのフレームワークである hyperFA*IR を提案する。
これは超幾何分布に基づく生成プロセスに依存しており、固定されたグループサイズから置き換えることなくサンプリングによって実世界のシナリオをモデル化する。
また,計算コストのかかるパラメータチューニングを回避し,不正ランキングを効率的に検出するモンテカルロアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-06-17T09:45:08Z) - Reducing Biases in Record Matching Through Scores Calibration [1.5530839016602822]
スコアバイアスの測定と低減のためのしきい値に依存しないフレームワークを提案する。
基準しきい値に基づく基準値の下では公平に見えても,いくつかの最先端マッチング手法がかなりのスコアバイアスを示すことを示す。
本稿では,2つのポストプロセッシングスコアキャリブレーションアルゴリズムを導入する。第1のキャリブは,ワッサーシュタイン・バリセンタを用いてグループワイズスコアの分布を調整し,人口統計学的パーティを目標とする。
第2のカラリブは、ラベルに依存したバイアス、例えば平等な機会を減らそうと予測されたラベルの条件である。
論文 参考訳(メタデータ) (2024-11-03T21:01:40Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - On Fair Selection in the Presence of Implicit and Differential Variance [22.897402186120434]
本研究では, 意思決定者が各候補の品質のノイズの多い推定値を受け取り, その差が候補群に依存するモデルについて検討する。
どちらの基準決定要因も、反対方向にも差別をもたらすことを示す。
論文 参考訳(メタデータ) (2021-12-10T16:04:13Z) - Deconfounding Scores: Feature Representations for Causal Effect
Estimation with Weak Overlap [140.98628848491146]
推定対象の偏りを伴わずに高い重なりを生じさせる,デコンファウンディングスコアを導入する。
分離スコアは観測データで識別可能なゼロ共分散条件を満たすことを示す。
特に,この手法が標準正規化の魅力的な代替となることを示す。
論文 参考訳(メタデータ) (2021-04-12T18:50:11Z) - Selective Classification Can Magnify Disparities Across Groups [89.14499988774985]
選択的分類は平均的精度を向上させることができるが、既存の精度格差を同時に増大させることができる。
禁忌の増大は、一部のグループでのアキュラシーを減少させることもある。
我々は,グループ間で類似のフルカバレッジ精度を実現する分散ロバストモデルを訓練し,選択分類が各グループを均一に改善することを示す。
論文 参考訳(メタデータ) (2020-10-27T08:51:30Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。