論文の概要: Beyond Procedure: Substantive Fairness in Conformal Prediction
- arxiv url: http://arxiv.org/abs/2602.16794v1
- Date: Wed, 18 Feb 2026 19:00:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:28.295795
- Title: Beyond Procedure: Substantive Fairness in Conformal Prediction
- Title(参考訳): 手続きを超えて: 整形予測における実体的公正性
- Authors: Pengqi Liu, Zijun Yu, Mouloud Belbahri, Arthur Charpentier, Masoud Asgharian, Jesse C. Cresswell,
- Abstract要約: Conformal Prediction (CP) は、機械学習モデルに対する分布のない不確実性定量化を提供する。
我々は、下流結果の等価性を評価するために、全体的意思決定パイプラインを分析した。
実験の結果, ラベルクラスタリングされたCP変種は, 定常フェアネスに優れることがわかった。
- 参考スコア(独自算出の注目度): 10.582635211917031
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conformal prediction (CP) offers distribution-free uncertainty quantification for machine learning models, yet its interplay with fairness in downstream decision-making remains underexplored. Moving beyond CP as a standalone operation (procedural fairness), we analyze the holistic decision-making pipeline to evaluate substantive fairness-the equity of downstream outcomes. Theoretically, we derive an upper bound that decomposes prediction-set size disparity into interpretable components, clarifying how label-clustered CP helps control method-driven contributions to unfairness. To facilitate scalable empirical analysis, we introduce an LLM-in-the-loop evaluator that approximates human assessment of substantive fairness across diverse modalities. Our experiments reveal that label-clustered CP variants consistently deliver superior substantive fairness. Finally, we empirically show that equalized set sizes, rather than coverage, strongly correlate with improved substantive fairness, enabling practitioners to design more fair CP systems. Our code is available at https://github.com/layer6ai-labs/llm-in-the-loop-conformal-fairness.
- Abstract(参考訳): コンフォーマル予測(CP)は、機械学習モデルに対して分布のない不確実性定量化を提供するが、下流の意思決定における公平性との相互作用は未解明のままである。
CPを単独で運用する(手続き的公正性)ことを超えて、我々は全体的意思決定パイプラインを分析し、実質的公正性、下流結果の公平性を評価する。
理論的には、予測セットサイズ格差を解釈可能なコンポーネントに分解する上限を導出し、ラベルクラスタCPがメソッド駆動による不公平性への寄与を制御するのにどのように役立つかを明らかにする。
スケーラブルな経験分析を容易にするために,多種多様なモダリティにおける実体的公正性の人間による評価を近似するLLM-in-the-loop評価器を導入する。
実験の結果, ラベルクラスタリングされたCP変種は, 定常フェアネスに優れることがわかった。
最後に,適用範囲ではなく,一様化集合のサイズが実体的公正性の向上と強く相関していることを示し,実践者がより公平なCPシステムを設計できるようにする。
私たちのコードはhttps://github.com/layer6ai-labs/llm-in-loop-conformal-fairnessで利用可能です。
関連論文リスト
- Fairness Aware Reward Optimization [78.85867531002346]
本稿では,Fairness Aware Reward Optimization (Faro)を紹介した。Fairness Aware Reward Optimization (Faro)は,階層的平等,等化オッズ,あるいは反実的フェアネス制約の下で報酬モデルを訓練するプロセス内フレームワークである。
LLMアライメントにおける報酬レベルの公平性に関する最初の理論的解析を行った。
Faroはモデルの品質を維持したり改善したりしながら、バイアスや有害な世代を著しく削減します。
論文 参考訳(メタデータ) (2026-02-08T03:35:49Z) - Decoupling the Effect of Chain-of-Thought Reasoning: A Human Label Variation Perspective [60.45433515408158]
長いチェーン・オブ・ソート(CoT)がトップオプションの決定的決定要因となるが、あいまいなタスクの粒度分布キャリブレータとして機能しないことを示す。
CoTは分布アライメントを改善するが、CoTの内容によって最終的な精度が決定される。
論文 参考訳(メタデータ) (2026-01-06T16:26:40Z) - IFFair: Influence Function-driven Sample Reweighting for Fair Classification [20.099162424205936]
本稿では,影響関数に基づくIFFairの事前処理手法を提案する。
他のフェアネス最適化手法と比較して、IFFairは異なるグループにおけるトレーニングサンプルの影響の差のみを使用する。
従来の前処理方法と比較して、複数のユーティリティとフェアネスのメトリクス間のトレードオフが向上します。
論文 参考訳(メタデータ) (2025-12-08T07:45:55Z) - Counterfactually Fair Conformal Prediction [8.13153220792812]
そこで我々は, 対実的公正な予測セットを生成するCF-CP(Counterfactually Fair Conformal Prediction)を開発した。
保護-属性介入間の適合度スコアの対称性化を通じて、CF-CPが反実的に公正な予測セットをもたらすことを証明した。
論文 参考訳(メタデータ) (2025-10-09T18:32:47Z) - Achieving Fairness in Predictive Process Analytics via Adversarial Learning [50.31323204077591]
本稿では、デバイアスフェーズを予測ビジネスプロセス分析に組み込むことの課題に対処する。
本研究の枠組みは, 4つのケーススタディで検証し, 予測値に対する偏り変数の寄与を著しく低減することを示した。
論文 参考訳(メタデータ) (2024-10-03T15:56:03Z) - Counterfactual Fairness by Combining Factual and Counterfactual Predictions [18.950415688199993]
医療や雇用といった高度な分野において、意思決定における機械学習(ML)の役割は、かなりの公平さの懸念を提起する。
この研究は、あらゆる個人に対するMLモデルの結果が、異なる人口集団に属していた場合、変化しないべきであると仮定する対実公正(CF)に焦点を当てている。
本稿では,CFと予測性能のトレードオフをモデルに依存しない形で理論的に検討する。
論文 参考訳(メタデータ) (2024-09-03T15:21:10Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z) - Fairness and Explainability: Bridging the Gap Towards Fair Model
Explanations [12.248793742165278]
我々は、説明に基づく手続き指向公正の新たな視点を提示することにより、公正性と説明可能性のギャップを埋める。
本稿では,複数の目的を同時に達成する包括的公正性アルゴリズム (CFA) を提案する。
論文 参考訳(メタデータ) (2022-12-07T18:35:54Z) - Fair and Optimal Classification via Post-Processing [10.163721748735801]
本稿では、分類問題における人口統計学の特質的トレードオフの完全な評価について述べる。
ランダム化および属性認識フェア分類器によって達成可能な最小誤差率は、ワッサーシュタイン・バリセンタ問題の最適値によって与えられることを示す。
論文 参考訳(メタデータ) (2022-11-03T00:04:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。