論文の概要: Private Federated Multiclass Post-hoc Calibration
- arxiv url: http://arxiv.org/abs/2510.01987v1
- Date: Thu, 02 Oct 2025 13:05:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:21.135467
- Title: Private Federated Multiclass Post-hoc Calibration
- Title(参考訳): プライベートフェデレーション・マルチクラスポストホック校正
- Authors: Samuel Maddock, Graham Cormode, Carsten Maple,
- Abstract要約: フェデレートラーニング(FL)の目標は、複数のクライアントに分散し、プライバシー上の懸念から集中できないデータに対して、グローバルモデルをトレーニングすることだ。
本研究は, FL内におけるポストホックモデルキャリブレーション技術の統合について紹介する。
本研究では,(1)フェデレーション設定,(2)ユーザレベル差分プライバシー(DP)設定について検討し,両者がキャリブレーション精度に与える影響を実証する。
- 参考スコア(独自算出の注目度): 22.40729940679
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Calibrating machine learning models so that predicted probabilities better reflect the true outcome frequencies is crucial for reliable decision-making across many applications. In Federated Learning (FL), the goal is to train a global model on data which is distributed across multiple clients and cannot be centralized due to privacy concerns. FL is applied in key areas such as healthcare and finance where calibration is strongly required, yet federated private calibration has been largely overlooked. This work introduces the integration of post-hoc model calibration techniques within FL. Specifically, we transfer traditional centralized calibration methods such as histogram binning and temperature scaling into federated environments and define new methods to operate them under strong client heterogeneity. We study (1) a federated setting and (2) a user-level Differential Privacy (DP) setting and demonstrate how both federation and DP impacts calibration accuracy. We propose strategies to mitigate degradation commonly observed under heterogeneity and our findings highlight that our federated temperature scaling works best for DP-FL whereas our weighted binning approach is best when DP is not required.
- Abstract(参考訳): 予測確率が真の結果頻度をよりよく反映するように機械学習モデルを校正することは、多くのアプリケーションにおける信頼性の高い意思決定に不可欠である。
フェデレートラーニング(FL)の目標は、複数のクライアントに分散し、プライバシー上の懸念から集中できないデータに対して、グローバルモデルをトレーニングすることだ。
FLは、キャリブレーションが強く要求される医療や金融などの重要な分野に適用されるが、フェデレートされたプライベートキャリブレーションはほとんど見過ごされている。
本研究は, FL内におけるポストホックモデルキャリブレーション技術の統合について紹介する。
具体的には、ヒストグラムの双晶化や温度スケーリングといった従来の集中型キャリブレーション手法をフェデレーション環境に移行し、強力なクライアントの不均一性の下でそれらを操作するための新しい手法を定義する。
本研究では,(1)フェデレーション設定,(2)ユーザレベル差分プライバシー(DP)設定について検討し,両者がキャリブレーション精度に与える影響を実証する。
我々は,不均一性下でよく見られる劣化を緩和する戦略を提案し,我々のフェデレート温度スケーリングがDP-FLに最適であるのに対して,重み付き双晶法はDPが不要な場合に最適であることを示す。
関連論文リスト
- Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Unlocking the Potential of Model Calibration in Federated Learning [15.93119575317457]
モデルキャリブレーションの概念とFLを統合した汎用フレームワークであるNon-Uniform for Federated Learning (NUCFL)を提案する。
OurFLは、各クライアントのローカルモデルとFLのグローバルモデルの関係に基づいてモデルキャリブレーションを動的に調整することで、この問題に対処する。
これにより、FLは精度を犠牲にすることなく、グローバルモデルのキャリブレーション要求を効果的に調整する。
論文 参考訳(メタデータ) (2024-09-07T20:11:11Z) - Enabling Differentially Private Federated Learning for Speech Recognition: Benchmarks, Adaptive Optimizers and Gradient Clipping [42.2819343711085]
DP付きFLは、少なくとも数百万のユーザを抱える場合、強力なプライバシー保証の下で有効であることを示す。
ASR の DP と FL の高 (低い) 個体群に外挿した場合, 単語誤り率を 1.3% に抑えたユーザレベル (7.2, 10-9$)-DP (4.5, 10-9$)-DP を実現する。
論文 参考訳(メタデータ) (2023-09-29T19:11:49Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Cali3F: Calibrated Fast Fair Federated Recommendation System [25.388324221293203]
提案手法は,推薦性能の公平性を改善するために,パーソナライズされた推薦システムトレーニングアルゴリズムを提案する。
次に、トレーニングプロセスの高速化のためにクラスタリングベースのアグリゲーション手法を採用する。
Cali3Fは、キャリブレーションされた高速かつ公正なフェデレーションレコメンデーションフレームワークである。
論文 参考訳(メタデータ) (2022-05-26T03:05:26Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。