論文の概要: Marginal and training-conditional guarantees in one-shot federated conformal prediction
- arxiv url: http://arxiv.org/abs/2405.12567v1
- Date: Tue, 21 May 2024 08:08:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 13:58:57.181112
- Title: Marginal and training-conditional guarantees in one-shot federated conformal prediction
- Title(参考訳): 一発連成型共形予測における正当性保証と訓練条件保証
- Authors: Pierre Humbert, Batiste Le Bars, Aurélien Bellet, Sylvain Arlot,
- Abstract要約: 単発フェデレート学習環境における共形予測について検討した。
主なゴールは、エージェントとサーバの間の1ラウンドの通信でのみ、サーバーレベルで、辺りとトレーニングで有効な予測セットを計算することである。
- 参考スコア(独自算出の注目度): 17.197488145781858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study conformal prediction in the one-shot federated learning setting. The main goal is to compute marginally and training-conditionally valid prediction sets, at the server-level, in only one round of communication between the agents and the server. Using the quantile-of-quantiles family of estimators and split conformal prediction, we introduce a collection of computationally-efficient and distribution-free algorithms that satisfy the aforementioned requirements. Our approaches come from theoretical results related to order statistics and the analysis of the Beta-Beta distribution. We also prove upper bounds on the coverage of all proposed algorithms when the nonconformity scores are almost surely distinct. For algorithms with training-conditional guarantees, these bounds are of the same order of magnitude as those of the centralized case. Remarkably, this implies that the one-shot federated learning setting entails no significant loss compared to the centralized case. Our experiments confirm that our algorithms return prediction sets with coverage and length similar to those obtained in a centralized setting.
- Abstract(参考訳): 単発フェデレート学習環境における共形予測について検討した。
主なゴールは、エージェントとサーバの間の1ラウンドの通信でのみ、サーバーレベルで、辺りとトレーニングで有効な予測セットを計算することである。
近似器のQuantile-of-quantiles系と分割共形予測を用いて、上記の要件を満たす計算効率・分布自由なアルゴリズムの集合を導入する。
我々のアプローチは、順序統計とβ-Beta分布の分析に関する理論的結果から導かれる。
また、非整合性スコアがほぼ確実に異なる場合、提案アルゴリズムのカバー範囲の上限も証明する。
訓練条件保証付きアルゴリズムの場合、これらの境界は集中型の場合と同じ桁数である。
注目すべきは、これは一発のフェデレーション・ラーニング・セッティングが集中型ケースに比べて大きな損失を伴わないことを意味している。
実験により,我々のアルゴリズムは,集中的に得られたものと同様のカバレッジと長さの予測セットを返すことを確認した。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - PAC Prediction Sets Under Label Shift [52.30074177997787]
予測セットは、個々のラベルではなくラベルのセットを予測することによって不確実性を捉える。
ラベルシフト設定においてPAC保証付き予測セットを構築するための新しいアルゴリズムを提案する。
提案手法を5つのデータセットで評価する。
論文 参考訳(メタデータ) (2023-10-19T17:57:57Z) - Conformal Prediction for Federated Uncertainty Quantification Under
Label Shift [57.54977668978613]
Federated Learning(FL)は、多くのクライアントが協力してモデルをトレーニングする機械学習フレームワークである。
我々は、量子回帰に基づく新しいコンフォメーション予測法を開発し、プライバシー制約を考慮した。
論文 参考訳(メタデータ) (2023-06-08T11:54:58Z) - Post-selection Inference for Conformal Prediction: Trading off Coverage
for Precision [0.0]
伝統的に、共形予測推論はデータに依存しない発見レベルの仕様を必要とする。
我々は,データ依存的誤発見レベルを考慮した同時共形推論を開発する。
論文 参考訳(メタデータ) (2023-04-12T20:56:43Z) - One-Shot Federated Conformal Prediction [0.0]
単発フェデレーション学習環境における予測セット構築のための共形予測手法を提案する。
我々は,任意の分布に対して,1ラウンドの通信でのみ,所望のカバレッジで予測セットを出力できることを証明した。
論文 参考訳(メタデータ) (2023-02-13T12:46:39Z) - Conformal prediction set for time-series [16.38369532102931]
不確かさの定量化は複雑な機械学習手法の研究に不可欠である。
我々は,時系列の予測セットを構築するために,ERAPS(Ensemble Regularized Adaptive Prediction Set)を開発した。
ERAPSによる有意な限界被覆と条件被覆を示し、競合する手法よりも予測セットが小さい傾向にある。
論文 参考訳(メタデータ) (2022-06-15T23:48:53Z) - Practical Adversarial Multivalid Conformal Prediction [27.179891682629183]
逐次予測のための一般的な共形予測法を提案する。
相手が選択したデータに対して、ターゲットの実証的カバレッジを保証する。
これは計算的に軽量であり、分割共形予測に匹敵する。
論文 参考訳(メタデータ) (2022-06-02T14:33:00Z) - Mixtures of Laplace Approximations for Improved Post-Hoc Uncertainty in
Deep Learning [24.3370326359959]
独立に訓練された深層ニューラルネットワークのラプラス近似の重み付け和からなるガウス混合モデル後部モデルを用いて予測することを提案する。
我々は,本手法がトレーニングデータから「遠方」に過信を緩和し,標準不確実性定量化ベンチマークにおける最先端のベースラインを実証的に比較することを理論的に検証した。
論文 参考訳(メタデータ) (2021-11-05T15:52:48Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - A Distributional Analysis of Sampling-Based Reinforcement Learning
Algorithms [67.67377846416106]
定常ステップサイズに対する強化学習アルゴリズムの理論解析に対する分布的アプローチを提案する。
本稿では,TD($lambda$)や$Q$-Learningのような値ベースの手法が,関数の分布空間で制約のある更新ルールを持つことを示す。
論文 参考訳(メタデータ) (2020-03-27T05:13:29Z) - A General Method for Robust Learning from Batches [56.59844655107251]
本稿では,バッチから頑健な学習を行う一般的なフレームワークについて考察し,連続ドメインを含む任意の領域に対する分類と分布推定の限界について考察する。
本手法は,一括分節分類,一括分節,単調,対数凹,ガウス混合分布推定のための,最初の頑健な計算効率の学習アルゴリズムを導出する。
論文 参考訳(メタデータ) (2020-02-25T18:53:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。