論文の概要: Certifiably Byzantine-Robust Federated Conformal Prediction
- arxiv url: http://arxiv.org/abs/2406.01960v1
- Date: Tue, 4 Jun 2024 04:43:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 18:00:19.021055
- Title: Certifiably Byzantine-Robust Federated Conformal Prediction
- Title(参考訳): Byzantine-Robust Federated Conformal Prediction
- Authors: Mintong Kang, Zhen Lin, Jimeng Sun, Cao Xiao, Bo Li,
- Abstract要約: 本稿では,悪意のあるクライアントに対する堅牢な共形予測を行う新しいフレームワークRob-FCPを提案する。
我々は、さまざまなビザンチン攻撃の下で、悪意のあるクライアントの多様な割合に対するRob-FCPの堅牢性を実証的に実証した。
- 参考スコア(独自算出の注目度): 49.23374238798428
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conformal prediction has shown impressive capacity in constructing statistically rigorous prediction sets for machine learning models with exchangeable data samples. The siloed datasets, coupled with the escalating privacy concerns related to local data sharing, have inspired recent innovations extending conformal prediction into federated environments with distributed data samples. However, this framework for distributed uncertainty quantification is susceptible to Byzantine failures. A minor subset of malicious clients can significantly compromise the practicality of coverage guarantees. To address this vulnerability, we introduce a novel framework Rob-FCP, which executes robust federated conformal prediction, effectively countering malicious clients capable of reporting arbitrary statistics with the conformal calibration process. We theoretically provide the conformal coverage bound of Rob-FCP in the Byzantine setting and show that the coverage of Rob-FCP is asymptotically close to the desired coverage level. We also propose a malicious client number estimator to tackle a more challenging setting where the number of malicious clients is unknown to the defender and theoretically shows its effectiveness. We empirically demonstrate the robustness of Rob-FCP against diverse proportions of malicious clients under a variety of Byzantine attacks on five standard benchmark and real-world healthcare datasets.
- Abstract(参考訳): コンフォーマル予測は、交換可能なデータサンプルを用いた機械学習モデルのための統計的に厳密な予測セットを構築する上で、印象的な能力を示している。
サイロ化されたデータセットは、ローカルなデータ共有に関連するプライバシー上の懸念のエスカレートと相まって、分散データサンプルによって、共形予測をフェデレートされた環境に拡張する最近のイノベーションに影響を与えている。
しかし、この分散不確実性定量化の枠組みはビザンツの失敗の影響を受けやすい。
悪意のあるクライアントの小さなサブセットは、カバレッジ保証の実用性を著しく損なう可能性がある。
この脆弱性に対処するために、ロブ-FCPという新しいフレームワークを導入し、ロブ-FCPは頑健な共形予測を実行し、共形校正プロセスで任意の統計を報告できる悪意のあるクライアントを効果的に対応させる。
理論的には、ビザンチン設定におけるRob-FCPの共形カバレッジ境界を提供し、Rob-FCPのカバレッジが所望のカバレッジレベルに漸近していることを示す。
また,悪意のあるクライアントの数が不明な,より困難な状況に対処するための,悪意のあるクライアント数推定器を提案し,その有効性を理論的に示す。
5つの標準ベンチマークと実世界の医療データセットに対するさまざまなビザンチン攻撃の下で、悪意のあるクライアントの多様な割合に対するRob-FCPの堅牢性を実証的に実証した。
関連論文リスト
- Robust Yet Efficient Conformal Prediction Sets [53.78604391939934]
コンフォーマル予測(CP)は、任意のモデルの出力を真のラベルを含むことが保証された予測セットに変換することができる。
整合性スコアの最悪のケース変化をバウンドすることで、証明可能なロバストな集合を導出する。
論文 参考訳(メタデータ) (2024-07-12T10:59:44Z) - COLEP: Certifiably Robust Learning-Reasoning Conformal Prediction via Probabilistic Circuits [21.140271657387903]
任意のブラックボックス機械学習モデルに対して,統計的に厳密な予測セットを構築する際に,等角予測の性能が向上した。
本稿では,確率回路を用いた確率論的に堅牢な学習共形予測フレームワーク(COLEP)を提案する。
CIFAR-10で9%,AwA2で14%, GTSRBで12%, CIFAR-10で9%, AwA2で14%, COLEPは12%向上した。
論文 参考訳(メタデータ) (2024-03-17T21:23:45Z) - Risk-Aware Accelerated Wireless Federated Learning with Heterogeneous
Clients [21.104752782245257]
Wireless Federated Learning (FL)は、分散機械学習のパラダイムである。
本稿では,クライアントが保有するデータ量の不均一性を考慮したリスク認識型FLフレームワークを提案する。
提案されたスキームは、保守的なスキーム(すなわち、信頼できるデバイスのみを許可する)と攻撃的なスキーム(すなわち、信頼度を無視する)に対してベンチマークされる。
論文 参考訳(メタデータ) (2024-01-17T15:15:52Z) - SureFED: Robust Federated Learning via Uncertainty-Aware Inward and
Outward Inspection [29.491675102478798]
本稿では,堅牢なフェデレーション学習のための新しいフレームワークであるSureFEDを紹介する。
SureFEDは、良識のあるクライアントのローカル情報を使って信頼を確立する。
理論的には、データとモデル中毒攻撃に対するアルゴリズムの堅牢性を証明する。
論文 参考訳(メタデータ) (2023-08-04T23:51:05Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、学習モデルにおけるプライバシの問題に対処するように設計されている。
新しい分散パラダイムは、データのプライバシを保護するが、サーバがローカルデータセットにアクセスできないため、攻撃面を区別する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - Byzantine-Robust Online and Offline Distributed Reinforcement Learning [60.970950468309056]
本稿では,複数のエージェントが環境を探索し,その経験を中央サーバを通じて伝達する分散強化学習環境について考察する。
エージェントの$alpha$-fractionは敵対的であり、任意の偽情報を報告することができる。
我々は、これらの対立エージェントの存在下で、マルコフ決定プロセスの根底にある準最適政策を特定することを模索する。
論文 参考訳(メタデータ) (2022-06-01T00:44:53Z) - Performance Weighting for Robust Federated Learning Against Corrupted
Sources [1.76179873429447]
分散機械学習の計算パラダイムとしてフェデレートラーニングが登場している。
現実世界のアプリケーションでは、フェデレーションされた環境は、好意的なクライアントと悪意のあるクライアントの混在によって構成される。
局所重みの標準的グローバルアグリゲーション方式は, クライアントの破損の有無で非効率であることを示す。
論文 参考訳(メタデータ) (2022-05-02T20:01:44Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。