論文の概要: PAC-Bayesian Generalization Guarantees for Fairness on Stochastic and Deterministic Classifiers
- arxiv url: http://arxiv.org/abs/2602.11722v1
- Date: Thu, 12 Feb 2026 08:49:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.730026
- Title: PAC-Bayesian Generalization Guarantees for Fairness on Stochastic and Deterministic Classifiers
- Title(参考訳): PAC-Bayesian Generalization Guarantees for Fairness on Stochastic and Deterministic Classifications
- Authors: Julien Bastian, Benjamin Leblanc, Pascal Germain, Amaury Habrard, Christine Largeron, Guillaume Metzler, Emilie Morvant, Paul Viallard,
- Abstract要約: フェアネスの一般化境界を導出するためのPAC-Bayesianフレームワークを提案する。
フレームワークには2つの利点がある: (i) リスクの相違として表現できる幅広い公正度尺度に適用され、 (ii) 自己バウンディングアルゴリズムにつながる。
- 参考スコア(独自算出の注目度): 8.438034474012044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classical PAC generalization bounds on the prediction risk of a classifier are insufficient to provide theoretical guarantees on fairness when the goal is to learn models balancing predictive risk and fairness constraints. We propose a PAC-Bayesian framework for deriving generalization bounds for fairness, covering both stochastic and deterministic classifiers. For stochastic classifiers, we derive a fairness bound using standard PAC-Bayes techniques. Whereas for deterministic classifiers, as usual PAC-Bayes arguments do not apply directly, we leverage a recent advance in PAC-Bayes to extend the fairness bound beyond the stochastic setting. Our framework has two advantages: (i) It applies to a broad class of fairness measures that can be expressed as a risk discrepancy, and (ii) it leads to a self-bounding algorithm in which the learning procedure directly optimizes a trade-off between generalization bounds on the prediction risk and on the fairness. We empirically evaluate our framework with three classical fairness measures, demonstrating not only its usefulness but also the tightness of our bounds.
- Abstract(参考訳): 古典的なPAC一般化は、予測リスクと公正性制約のバランスをとるモデルの学習を目標とするときに、公平性に関する理論的保証を提供するには不十分である。
確率的および決定論的分類器の両方をカバーする、公正性に対する一般化境界を導出するためのPAC-Bayesianフレームワークを提案する。
確率的分類器に対しては、標準的なPAC-Bayes手法を用いてフェアネスを導出する。
決定論的分類器の場合、通常のPAC-Bayes引数は直接適用されないが、PAC-Bayesの最近の進歩を利用して確率的設定を超えた公正性を拡張する。
私たちのフレームワークには2つの利点があります。
一 リスクの相違として表せる幅広い公正対策の類に当てはまること。
二 学習手順は、予測リスクと公正性とのトレードオフを直接最適化する自己バウンディングアルゴリズムに導かれる。
3つの古典的公正度尺度を用いて、我々の枠組みを実証的に評価し、その有用性だけでなく、境界の厳密性も示す。
関連論文リスト
- Conformal Bandits: Bringing statistical validity and reward efficiency to the small-gap regime [0.39082875522676397]
本稿では,コンフォーマル予測を帯域問題に組み込む新しいフレームワークであるConformal Banditsを紹介する。
有限時間予測カバレッジという形で統計的保証を施した意思決定の盗賊政策の後悔を最小化する可能性を橋渡しする。
これに触発された私たちは、小さなギャップ設定での後悔の観点から、我々のフレームワークの実践的な優位性を示します。
論文 参考訳(メタデータ) (2025-12-10T17:34:55Z) - A Framework for Bounding Deterministic Risk with PAC-Bayes: Applications to Majority Votes [4.664367264604233]
PAC-Bayes は、非可算仮説空間における一般化保証を得るための一般的なフレームワークである。
本研究では,PAC-ベイジアン保証から単一仮説の保持する保証を抽出する統一的な枠組みを提案する。
論文 参考訳(メタデータ) (2025-10-29T14:38:35Z) - Set to Be Fair: Demographic Parity Constraints for Set-Valued Classification [5.085064777896467]
本研究は,人口順と予測サイズ制約の下での集合値分類の問題に対処する。
両制約を満足しながら分類リスクを最小限に抑えるオラクルベースの方法と,制約満足度を優先する計算効率の良いプロキシの2つの補完戦略を提案する。
論文 参考訳(メタデータ) (2025-10-06T15:36:45Z) - Optimal Conformal Prediction under Epistemic Uncertainty [61.46247583794497]
コンフォーマル予測(CP)は不確実性を表すための一般的なフレームワークである。
条件付きカバレッジを保証する最小の予測セットを生成するBernoulli予測セット(BPS)を導入する。
1次予測を与えられた場合、BPSはよく知られた適応予測セット(APS)に還元する。
論文 参考訳(メタデータ) (2025-05-25T08:32:44Z) - Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Auditing Predictive Models for Intersectional Biases [1.9346186297861747]
Conditional Bias Scan (CBS)は、分類モデルにおける交差バイアスを検出するフレキシブル監査フレームワークである。
CBSは、保護されていないクラスの同等のサブグループと比較して、保護されたクラスに対して最も重要なバイアスがあるサブグループを特定している。
本手法は,CompAS前リスクアセスメントツールにおいて,未同定の交差点バイアスとコンテキストバイアスを検出できることを示す。
論文 参考訳(メタデータ) (2023-06-22T17:32:12Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Self-Certifying Classification by Linearized Deep Assignment [65.0100925582087]
そこで我々は,PAC-Bayesリスク認定パラダイム内で,グラフ上のメトリックデータを分類するための新しい深層予測器のクラスを提案する。
PAC-Bayesの最近の文献とデータに依存した先行研究に基づいて、この手法は仮説空間上の後続分布の学習を可能にする。
論文 参考訳(メタデータ) (2022-01-26T19:59:14Z) - Selective Classification via One-Sided Prediction [54.05407231648068]
片側予測(OSP)に基づく緩和は、実際に関係する高目標精度体制において、ほぼ最適カバレッジが得られるSCスキームをもたらす。
理論的には,SCとOSPのバウンダリ一般化を導出し,その手法が小さな誤差レベルでのカバレッジにおいて,技術手法の状態を強く上回ることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。