論文の概要: Fixed Points and Stochastic Meritocracies: A Long-Term Perspective
- arxiv url: http://arxiv.org/abs/2510.07478v1
- Date: Wed, 08 Oct 2025 19:23:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.690548
- Title: Fixed Points and Stochastic Meritocracies: A Long-Term Perspective
- Title(参考訳): 固定点と確率的メリトクラシー--長期的展望
- Authors: Gaurab Pokharel, Diptangshu Sen, Sanmay Das, Juba Ziani,
- Abstract要約: 本研究は,既成的選択によって引き起こされるフィードバックループの文脈におけるグループフェアネスを,それ自身が付加的な優位性を与えるプログラムに検証する。
プログラムの利点(または、それに入らないことの害)が完全に対称である場合、両集団間の格差が最終的に解消されることが示される。
また、完全に対称な初期条件でさえも、大きな相違が生じる可能性があることも見出した。
- 参考スコア(独自算出の注目度): 11.2610829816461
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study group fairness in the context of feedback loops induced by meritocratic selection into programs that themselves confer additional advantage, like college admissions. We introduce a novel stylized inter-generational model for the setting and analyze it in situations where there are no underlying differences between two populations. We show that, when the benefit of the program (or the harm of not getting into it) is completely symmetric, disparities between the two populations will eventually dissipate. However, the time an accumulated advantage takes to dissipate could be significant, and increases substantially as a function of the relative importance of the program in conveying benefits. We also find that significant disparities can arise due to chance even from completely symmetric initial conditions, especially when populations are small. The introduction of even a slight asymmetry, where the group that has accumulated an advantage becomes slightly preferred, leads to a completely different outcome. In these instances, starting from completely symmetric initial conditions, disparities between groups arise stochastically and then persist over time, yielding a permanent advantage for one group. Our analysis precisely characterizes conditions under which disparities persist or diminish, with a particular focus on the role of the scarcity of available spots in the program and its effectiveness. We also present extensive simulations in a richer model that further support our theoretical results in the simpler, stylized model. Our findings are relevant for the design and implementation of algorithmic fairness interventions in similar selection processes.
- Abstract(参考訳): 本研究は,大学入試などの付加的な優位性を示すプログラムに対して,主観的選択によって引き起こされるフィードバックループの文脈におけるグループフェアネスについて検討する。
本研究では,2つの個体群間に基礎的な違いがない状況下で,新しい世代間モデルを導入し,解析する。
プログラムの利点(または、それに入らないことの害)が完全に対称である場合、両集団間の格差が最終的に解消されることが示される。
しかし、累積的な優位性が散布に要する時間は重要であり、利益を伝達するプログラムの相対的な重要性の関数として著しく増加する可能性がある。
また, 集団が小さければ, 完全に対称な初期条件でも有意差が生じることも見いだされた。
利点を蓄積した群がわずかに好まれるわずかな非対称性の導入は、完全に異なる結果をもたらす。
これらの例では、完全に対称な初期条件から始めて、群間の格差は確率的に発生し、時間とともに持続し、1つの群に対して恒久的な優位性をもたらす。
本分析では,プログラムにおける可利用スポットの不足の役割とその有効性に着目し,相違が持続または減少する条件を正確に特徴付ける。
また、よりリッチなモデルで広範なシミュレーションを行い、よりシンプルでスタイリングされたモデルで理論結果を支援する。
本研究は,類似の選択プロセスにおけるアルゴリズムフェアネス介入の設計と実装に関係している。
関連論文リスト
- BM-CL: Bias Mitigation through the lens of Continual Learning [3.678971843192423]
本研究は,このトレードオフに対応するために連続学習の原則を活用する新しいフレームワークであるBias Mitigation through Continual Learning (BM-CL)を紹介する。
緩和バイアスは、モデルが変化する公正条件に適応しなければならない領域増分連続学習と概念的に類似していると仮定する。
我々のアプローチは、公平性と継続的な学習の分野を橋渡しし、公平かつ効果的な機械学習システムの開発に有望な経路を提供する。
論文 参考訳(メタデータ) (2025-09-01T19:23:24Z) - Reduced-Rank Multi-objective Policy Learning and Optimization [57.978477569678844]
実際には、因果研究者は先験を念頭において1つの結果を持っていない。
政府支援の社会福祉プログラムでは、政策立案者は貧困の多次元的性質を理解するために多くの成果を集めている。
本稿では、最適政策学習の文脈において、複数の結果に対するデータ駆動型次元性推論手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T08:16:30Z) - Moral Machine or Tyranny of the Majority? [25.342029326793917]
Moral Machineプロジェクトでは、自動運転車に関する"Trolley Problems"に対する回答をクラウドソーシングした。
Noothigattu et al. は、各個人の好みを近似した線形関数を推論し、これらの線形モデルを集団全体の平均パラメータによって集約することを提案した。
本稿では,この平均化メカニズムについて検討し,戦略的効果の有無の公平性に焦点をあてる。
論文 参考訳(メタデータ) (2023-05-27T00:49:11Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Beyond Impossibility: Balancing Sufficiency, Separation and Accuracy [27.744055920557024]
満足度とテキストセパレーションの緊張
本研究の目的は,テクスチャフィフィフィリエイトとテクスチャセパレーションのバランスをとることである。
既存の代替手段よりも優れたトレードオフが達成できる、有望な結果を示します。
論文 参考訳(メタデータ) (2022-05-24T19:14:21Z) - Deconfounding Scores: Feature Representations for Causal Effect
Estimation with Weak Overlap [140.98628848491146]
推定対象の偏りを伴わずに高い重なりを生じさせる,デコンファウンディングスコアを導入する。
分離スコアは観測データで識別可能なゼロ共分散条件を満たすことを示す。
特に,この手法が標準正規化の魅力的な代替となることを示す。
論文 参考訳(メタデータ) (2021-04-12T18:50:11Z) - Supercharging Imbalanced Data Learning With Energy-based Contrastive
Representation Transfer [72.5190560787569]
コンピュータビジョンにおいて、長い尾のデータセットからの学習は、特に自然画像データセットの繰り返しのテーマである。
本稿では,データ生成機構がラベル条件と特徴分布の間で不変であるメタ分散シナリオを提案する。
これにより、因果データインフレーションの手順を利用してマイノリティクラスの表現を拡大できる。
論文 参考訳(メタデータ) (2020-11-25T00:13:11Z) - Adversarial Learning for Counterfactual Fairness [15.302633901803526]
近年、フェアネスは機械学習研究コミュニティにおいて重要なトピックとなっている。
我々は,MDDの罰則よりも強力な推論を可能にする,対向的ニューラルネットワークアプローチに頼ることを提案する。
実験では、離散的および連続的な設定の両方に対して、対実的公正性の観点から、顕著な改善が示された。
論文 参考訳(メタデータ) (2020-08-30T09:06:03Z) - Causal Inference under Outcome-Based Sampling with Monotonicity
Assumptions [0.0]
ケースコントロールとケースポピュレーションサンプリングによる因果推論について検討した。
強い無知性は、必ずしもランダムサンプリングのときほど強力ではないことを示す。
論文 参考訳(メタデータ) (2020-04-17T16:01:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。