論文の概要: Generalizing Fair Top-$k$ Selection: An Integrative Approach
- arxiv url: http://arxiv.org/abs/2603.04689v1
- Date: Thu, 05 Mar 2026 00:06:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.010979
- Title: Generalizing Fair Top-$k$ Selection: An Integrative Approach
- Title(参考訳): 公平なk$選択の一般化:統合的アプローチ
- Authors: Guangya Cai,
- Abstract要約: 本研究では,保護群を用いた公正最小化(線形)スコアリング関数の問題について検討する。
2次元のデータセットと小さな値が$k$である場合、この問題でさえ計算的に難解であることが示される。
このソリューションは、実世界のデータセットに強い経験的パフォーマンスを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fair top-$k$ selection, which ensures appropriate proportional representation of members from minority or historically disadvantaged groups among the top-$k$ selected candidates, has drawn significant attention. We study the problem of finding a fair (linear) scoring function with multiple protected groups while also minimizing the disparity from a reference scoring function. This generalizes the prior setup, which was restricted to the single-group setting without disparity minimization. Previous studies imply that the number of protected groups may have a limited impact on the runtime efficiency. However, driven by the need for experimental exploration, we find that this implication overlooks a critical issue that may affect the fairness of the outcome. Once this issue is properly considered, our hardness analysis shows that the problem may become computationally intractable even for a two-dimensional dataset and small values of $k$. However, our analysis also reveals a gap in the hardness barrier, enabling us to recover the efficiency for the case of small $k$ when the number of protected groups is sufficiently small. Furthermore, beyond measuring disparity as the "distance" between the fair and the reference scoring functions, we introduce an alternative disparity measure$\unicode{x2014}$utility loss$\unicode{x2014}$that may yield a more stable scoring function under small weight perturbations. Through careful engineering trade-offs that balance implementation complexity, robustness, and performance, our augmented two-pronged solution demonstrates strong empirical performance on real-world datasets, with experimental observations also informing algorithm design and implementation decisions.
- Abstract(参考訳): 選ばれた候補のうち少数または歴史的に不利なグループからのメンバの適切な比例代表を確実にする$k$選択は、大きな注目を集めている。
基準スコアリング関数との差を最小限に抑えつつ,複数の保護群を持つ公正(線形)スコアリング関数を求める問題について検討する。
これは以前の設定を一般化し、これは差分最小化なしで単群設定に制限された。
従来の研究は、保護されたグループの数が実行効率に限られた影響を及ぼす可能性を示唆していた。
しかし、実験的な調査の必要性から、この影響は結果の公平性に影響を与える可能性のある重要な問題を見落としていることがわかった。
この問題を適切に検討すると、2次元のデータセットと$k$の小さな値であっても、この問題が計算的に難解になる可能性があることを示す。
しかし,本分析では,保護群数が十分小さい場合,小さい$k$の場合の効率を回復することのできる硬度障壁のギャップも明らかにした。
さらに、フェアと基準スコアリング関数の「距離」として格差を測定すること以外に、小さな重みの摂動の下でより安定なスコアリング関数が得られるような代替の分散測度$\unicode{x2014}$utility loss$\unicode{x2014}$を導入する。
実装の複雑さ、堅牢性、パフォーマンスのバランスをとる慎重なエンジニアリングトレードオフを通じて、我々の強化された2段階のソリューションは、実世界のデータセット上で強力な経験的なパフォーマンスを示し、実験的な観察により、アルゴリズムの設計と実装の決定を通知します。
関連論文リスト
- Almost Asymptotically Optimal Active Clustering Through Pairwise Observations [59.20614082241528]
そこで本研究では, ノイズと能動的に収集された応答を用いて, M$アイテムを未知数の$K$個別グループにクラスタリングするための新しい分析フレームワークを提案する。
クラスタリングの精度に対する望ましい信頼性を達成するのに必要なクエリ数の基本的下位境界を確立する。
我々は、一般化された同値比統計の計算可能な変種を開発し、その下限に対する性能ギャップを正確に推定できることを実証的に示す。
論文 参考訳(メタデータ) (2026-02-05T14:16:47Z) - Cost Efficient Fairness Audit Under Partial Feedback [14.57835291220813]
本研究では,ある分類器の公平さを部分的フィードバック下で監査する問題について検討する。
追加ラベル付きデータを取得するための新しいコストモデルを導入する。
我々のアルゴリズムは監査コストの点で自然ベースラインを約50%上回っていることを示す。
論文 参考訳(メタデータ) (2025-10-04T08:38:03Z) - Outcome-Based Online Reinforcement Learning: Algorithms and Fundamental Limits [58.63897489864948]
結果に基づくフィードバックによる強化学習は、根本的な課題に直面します。
適切なアクションにクレジットを割り当てるには?
本稿では,一般関数近似を用いたオンラインRLにおけるこの問題の包括的解析を行う。
論文 参考訳(メタデータ) (2025-05-26T17:44:08Z) - Enforcing Fairness Where It Matters: An Approach Based on Difference-of-Convex Constraints [12.054667230143803]
我々は、予測モデルにより全てのスコア範囲で完全な公正性を達成することに集中し、ハイスコアとロースコアの両方の人口を確保する。
我々は,他の地域での柔軟性を維持しつつ,意思決定が最優先される中核として,新たな関心点を提案する。
所定のスコア範囲内での公平さを厳格に評価するために,2つの統計指標を導入する。
論文 参考訳(メタデータ) (2025-05-18T19:50:01Z) - Project-Probe-Aggregate: Efficient Fine-Tuning for Group Robustness [61.45587642780908]
画像テキスト基礎モデルのパラメータ効率向上のための3段階のアプローチを提案する。
本手法は, マイノリティ標本同定とロバストトレーニングアルゴリズムの2つの重要な要素を改良する。
我々の理論分析は,PPAが少数群の識別を向上し,バランスの取れたグループエラーを最小限に抑えるためにベイズが最適であることを示している。
論文 参考訳(メタデータ) (2025-03-12T15:46:12Z) - Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Minimax Optimal Fair Classification with Bounded Demographic Disparity [28.936244976415484]
本稿では,2つの保護群による公正二項分類の統計的基礎について考察する。
有限サンプルを用いると、グループ固有の受容閾値を推定する必要があるため、追加のコストが発生することを示す。
オフセットを持つグループワイドしきい値法であるFairBayes-DDP+を提案する。
論文 参考訳(メタデータ) (2024-03-27T02:59:04Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z) - Instance-optimality in optimal value estimation: Adaptivity via
variance-reduced Q-learning [99.34907092347733]
本稿では,マルコフ決定過程における最適な$Q$値関数を離散状態と動作で推定する問題を解析する。
局所的なミニマックスフレームワークを用いて、この関数は任意の推定手順の精度の低い境界に現れることを示す。
他方,Q$ラーニングの分散還元版を解析することにより,状態と行動空間の対数的要因まで,下位境界のシャープさを確立する。
論文 参考訳(メタデータ) (2021-06-28T00:38:54Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - Minimax Group Fairness: Algorithms and Experiments [18.561824632836405]
我々は,極小群フェアネスのための有意収束性オラクル効率学習アルゴリズムを提供する。
我々のアルゴリズムは回帰と分類の両方に当てはまる。
ミニマックスフェアネスが厳密で、平等な結果の概念よりも強く好ましい経験的ケースを示す。
論文 参考訳(メタデータ) (2020-11-05T21:42:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。