論文の概要: Towards Trustworthy Federated Learning with Untrusted Participants
- arxiv url: http://arxiv.org/abs/2505.01874v2
- Date: Wed, 04 Jun 2025 15:22:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 16:24:48.988369
- Title: Towards Trustworthy Federated Learning with Untrusted Participants
- Title(参考訳): 信頼できない参加者による信頼あるフェデレートラーニングを目指して
- Authors: Youssef Allouah, Rachid Guerraoui, John Stephan,
- Abstract要約: 本稿では,各ペアが未知のランダムなシードを共有することにより,仮定が大幅に弱まることを示す。
相関ノイズインジェクションと頑健な勾配アグリゲーションを統合するアルゴリズムであるCafCorを提案する。
CafCorは強力なプライバシーとユーティリティのトレードオフを達成し、ローカルな差分プライバシー手法を著しく上回っていることを実証する。
- 参考スコア(独自算出の注目度): 7.278033100480175
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Resilience against malicious participants and data privacy are essential for trustworthy federated learning, yet achieving both with good utility typically requires the strong assumption of a trusted central server. This paper shows that a significantly weaker assumption suffices: each pair of participants shares a randomness seed unknown to others. In a setting where malicious participants may collude with an untrusted server, we propose CafCor, an algorithm that integrates robust gradient aggregation with correlated noise injection, using shared randomness between participants. We prove that CafCor achieves strong privacy-utility trade-offs, significantly outperforming local differential privacy (DP) methods, which do not make any trust assumption, while approaching central DP utility, where the server is fully trusted. Empirical results on standard benchmarks validate CafCor's practicality, showing that privacy and robustness can coexist in distributed systems without sacrificing utility or trusting the server.
- Abstract(参考訳): 悪意のある参加者に対するレジリエンスとデータのプライバシは、信頼できるフェデレーション学習には不可欠ですが、優れたユーティリティで両方を達成するには、一般的には信頼できる中央サーバーの強い前提が必要です。
本稿では,各ペアが未知のランダムなシードを共有することにより,仮定が大幅に弱まることを示す。
悪意のある参加者が信頼できないサーバと共謀する可能性のある環境では、参加者間のランダム性を共有することで、ロバスト勾配集約と相関ノイズ注入を統合するアルゴリズムであるCafCorを提案する。
我々は,CafCorが強力なプライバシ・ユーティリティのトレードオフを実現し,サーバが完全に信頼されている中央DPユーティリティに近づきながら,信頼を前提としないローカル差分プライバシ(DP)手法を著しく上回っていることを証明した。
標準ベンチマークの実証的な結果はCafCorの実用性を評価し、ユーティリティを犠牲にしたりサーバを信頼したりすることなく、分散システムにプライバシとロバスト性が共存可能であることを示している。
関連論文リスト
- Towards Trustworthy Federated Learning [26.25193909843069]
本稿では,フェデレートラーニング(FL)における3つの重要な課題に対処するための包括的枠組みを開発する。
ビザンチン攻撃に対するシステムの防御を改善するため,両面のノーム・ベース・スクリーニング機構を開発した。
また、ローカルクライアントの生データが好奇心をそそる関係者によって推測されるのを防ぐために、差分プライバシーベースのスキームも採用しています。
論文 参考訳(メタデータ) (2025-03-05T17:25:20Z) - Secure Stateful Aggregation: A Practical Protocol with Applications in Differentially-Private Federated Learning [36.42916779389165]
DP-FTRLベースのアプローチは、すでに業界に広く展開されている。
セキュアなステートフルアグリゲーションを導入します。これは、アグリゲーション値のプライベートストレージを可能にする、単純なアグリゲーションのみのデータ構造です。
DP-FTRLをベースとした私的フェデレーション学習を実現するためには,セキュアなステートフルアグリゲーションが十分である。
論文 参考訳(メタデータ) (2024-10-15T07:45:18Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - Privacy Preserving Semi-Decentralized Mean Estimation over Intermittently-Connected Networks [59.43433767253956]
信頼できない無線ネットワークの異なるノードに分散するベクトルの平均をプライベートに推定する問題を考える。
半分散的なセットアップでは、ノードは隣人と協力してローカルコンセンサスを計算し、中央サーバにリレーする。
ノード間のデータ共有による協調中継とプライバシー漏洩のトレードオフについて検討する。
論文 参考訳(メタデータ) (2024-06-06T06:12:15Z) - Enhancing Mutual Trustworthiness in Federated Learning for Data-Rich Smart Cities [29.951569327998133]
フェデレーション学習は、データリッチなスマートシティにおける、コラボレーションとプライバシ保護を約束する機械学習アプローチである。
ランダムなクライアント選択技術のような従来のアプローチは、システムの完全性にいくつかの脅威をもたらす。
本稿では,クライアントとサーバの双方の信頼ニーズを考慮して,フェデレート学習における相互信頼感に対処する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-01T08:49:22Z) - Efficient Conformal Prediction under Data Heterogeneity [79.35418041861327]
コンフォーマル予測(CP)は不確実性定量化のための頑健な枠組みである。
非交換性に対処するための既存のアプローチは、最も単純な例を超えて計算不可能なメソッドにつながる。
この研究は、比較的一般的な非交換可能なデータ分布に対して証明可能な信頼セットを生成する、CPに新しい効率的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-25T20:02:51Z) - MUDGUARD: Taming Malicious Majorities in Federated Learning using
Privacy-Preserving Byzantine-Robust Clustering [34.429892915267686]
Byzantine-robust Federated Learning (FL)は、悪意のあるクライアントに対抗し、攻撃の成功率を極端に低く保ちながら、正確なグローバルモデルをトレーニングすることを目的としている。
しかし、既存のシステムのほとんどは、クライアントが正直な場合にのみ堅牢である。
本稿では,サーバ側とクライアント側の両方で悪意あるマイノリティの求職者多数で運用可能な,ビザンチン・ロバスト・プライバシ保護型FLシステム MUDGUARD を提案する。
論文 参考訳(メタデータ) (2022-08-22T09:17:58Z) - FedCL: Federated Contrastive Learning for Privacy-Preserving
Recommendation [98.5705258907774]
FedCLは、プライバシーを十分に保護した効果的なモデルトレーニングのために、高品質な負のサンプルを利用することができる。
まず、各クライアントのローカルモデルを介してローカルユーザデータからユーザ埋め込みを推測し、その後、ローカルディファレンシャルプライバシ(LDP)で摂動する。
個々のユーザ埋め込みにはLDPによる重騒音が伴うため,ノイズの影響を軽減するため,サーバ上にユーザ埋め込みをクラスタ化することを提案する。
論文 参考訳(メタデータ) (2022-04-21T02:37:10Z) - OLIVE: Oblivious Federated Learning on Trusted Execution Environment
against the risk of sparsification [22.579050671255846]
本研究は,フェデレートラーニングと防衛におけるサーバサイドTEEの脆弱性の分析に焦点をあてる。
まず,メモリアクセスパターンの漏洩を理論的に解析し,スペーサー化勾配のリスクを明らかにする。
第2に、トレーニングデータセット内の機密情報にメモリアクセスパターンをリンクする推論攻撃を考案する。
論文 参考訳(メタデータ) (2022-02-15T03:23:57Z) - Learning Calibrated Uncertainties for Domain Shift: A Distributionally
Robust Learning Approach [150.8920602230832]
ドメインシフトの下で校正された不確実性を学習するためのフレームワークを提案する。
特に、密度比推定は、ターゲット(テスト)サンプルの近さをソース(トレーニング)分布に反映する。
提案手法は下流タスクに有利な校正不確実性を生成する。
論文 参考訳(メタデータ) (2020-10-08T02:10:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。