論文の概要: FedCF: Fair Federated Conformal Prediction
- arxiv url: http://arxiv.org/abs/2509.22907v1
- Date: Fri, 26 Sep 2025 20:35:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.931002
- Title: FedCF: Fair Federated Conformal Prediction
- Title(参考訳): FedCF: 公正なFederated Conformal Prediction
- Authors: Anutam Srinivasan, Aditya T. Vadlamani, Amin Meghrazi, Srinivasan Parthasarathy,
- Abstract要約: コンフォーマルフェアネス(CF)フレームワークをフェデレートラーニング設定に拡張し、フェアネスのためのフェデレーションモデルの監査方法について議論します。
複数のドメインにまたがる複数のデータセットの実験を行うことで、我々のフレームワークを実証的に検証する。
- 参考スコア(独自算出の注目度): 4.145290936792853
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conformal Prediction (CP) is a widely used technique for quantifying uncertainty in machine learning models. In its standard form, CP offers probabilistic guarantees on the coverage of the true label, but it is agnostic to sensitive attributes in the dataset. Several recent works have sought to incorporate fairness into CP by ensuring conditional coverage guarantees across different subgroups. One such method is Conformal Fairness (CF). In this work, we extend the CF framework to the Federated Learning setting and discuss how we can audit a federated model for fairness by analyzing the fairness-related gaps for different demographic groups. We empirically validate our framework by conducting experiments on several datasets spanning multiple domains, fully leveraging the exchangeability assumption.
- Abstract(参考訳): Conformal Prediction (CP) は機械学習モデルにおける不確実性を定量化する手法として広く用いられている。
標準形式では、CPは真のラベルのカバレッジに関する確率論的保証を提供するが、データセットのセンシティブな属性には依存しない。
いくつかの最近の研究は、異なるサブグループ間で条件付きカバレッジを保証することによって、CPに公正さを取り入れようとしている。
そのような方法の1つは、コンフォーマルフェアネス(CF)である。
本研究では、CFフレームワークをフェデレートラーニング設定に拡張し、異なる人口集団の公平性に関連するギャップを分析して、フェデレーションモデルの公平性を評価する方法について論じる。
我々は、複数のドメインにまたがる複数のデータセットの実験を行い、交換可能性の仮定を完全に活用することで、我々のフレームワークを実証的に検証する。
関連論文リスト
- A Generic Framework for Conformal Fairness [7.073917553857755]
我々は、共形予測器を用いた公正の概念であるtextitConformal Fairness を定式化する。
我々は、異なるセンシティブなグループ間のカバレッジのギャップを制御するための理論的に十分に確立されたアルゴリズムと関連するフレームワークを提供する。
論文 参考訳(メタデータ) (2025-05-22T01:41:12Z) - Efficient Conformal Prediction under Data Heterogeneity [79.35418041861327]
コンフォーマル予測(CP)は不確実性定量化のための頑健な枠組みである。
非交換性に対処するための既存のアプローチは、最も単純な例を超えて計算不可能なメソッドにつながる。
この研究は、比較的一般的な非交換可能なデータ分布に対して証明可能な信頼セットを生成する、CPに新しい効率的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-25T20:02:51Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Conformal Prediction for Federated Uncertainty Quantification Under
Label Shift [57.54977668978613]
Federated Learning(FL)は、多くのクライアントが協力してモデルをトレーニングする機械学習フレームワークである。
我々は、量子回帰に基づく新しいコンフォメーション予測法を開発し、プライバシー制約を考慮した。
論文 参考訳(メタデータ) (2023-06-08T11:54:58Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z) - FaiREE: Fair Classification with Finite-Sample and Distribution-Free Guarantee [35.68504233140245]
FaiREE は群フェアネス制約を有限サンプルと分布自由な理論保証で満たす公平な分類アルゴリズムである。
FaiREEは最先端のアルゴリズムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-28T05:16:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。