論文の概要: Efficient Byzantine-Robust Privacy-Preserving Federated Learning via Dimension Compression
- arxiv url: http://arxiv.org/abs/2509.11870v1
- Date: Mon, 15 Sep 2025 12:43:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.287332
- Title: Efficient Byzantine-Robust Privacy-Preserving Federated Learning via Dimension Compression
- Title(参考訳): 次元圧縮による効率的なビザンチン・ロバストプライバシー保護フェデレーション学習
- Authors: Xian Qin, Xue Yang, Xiaohu Tang,
- Abstract要約: フェデレートラーニング(FL)は、生データを共有せずに分散クライアント間で協調的なモデルトレーニングを可能にし、プライバシーを保護します。
既存のソリューションは、プライバシー保護、ビザンチンの堅牢性、計算効率において重要なトレードオフに直面している。
そこで本研究では,ジョンソン-リンデンシュトラウス変換に基づいて,同相暗号と次元圧縮を統合する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 30.440611659881494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) allows collaborative model training across distributed clients without sharing raw data, thus preserving privacy. However, the system remains vulnerable to privacy leakage from gradient updates and Byzantine attacks from malicious clients. Existing solutions face a critical trade-off among privacy preservation, Byzantine robustness, and computational efficiency. We propose a novel scheme that effectively balances these competing objectives by integrating homomorphic encryption with dimension compression based on the Johnson-Lindenstrauss transformation. Our approach employs a dual-server architecture that enables secure Byzantine defense in the ciphertext domain while dramatically reducing computational overhead through gradient compression. The dimension compression technique preserves the geometric relationships necessary for Byzantine defence while reducing computation complexity from $O(dn)$ to $O(kn)$ cryptographic operations, where $k \ll d$. Extensive experiments across diverse datasets demonstrate that our approach maintains model accuracy comparable to non-private FL while effectively defending against Byzantine clients comprising up to $40\%$ of the network.
- Abstract(参考訳): フェデレートラーニング(FL)は、生データを共有せずに分散クライアント間で協調的なモデルトレーニングを可能にし、プライバシーを保護します。
しかし、このシステムは、勾配更新によるプライバシーの漏洩や、悪意のあるクライアントからのビザンチン攻撃に弱いままだ。
既存のソリューションは、プライバシー保護、ビザンチンの堅牢性、計算効率において重要なトレードオフに直面している。
ジョンソン-リンデンシュトラウス変換に基づく同相暗号と次元圧縮を統合することで、これらの競合する目的を効果的にバランスさせる新しいスキームを提案する。
提案手法では,暗号文領域におけるビザンチンのセキュアな防御を実現すると同時に,勾配圧縮による計算オーバーヘッドを劇的に低減するデュアルサーバアーキテクチャを採用している。
次元圧縮技術は、計算複雑性を$O(dn)$から$O(kn)$に減らしながら、ビザンティン防衛に必要な幾何学的関係を保存する。
多様なデータセットにわたる大規模な実験により、我々のアプローチは非プライベートFLに匹敵するモデルの精度を維持しつつ、ネットワークの最大40倍の費用でビザンツのクライアントを効果的に防御することを示した。
関連論文リスト
- ZORRO: Zero-Knowledge Robustness and Privacy for Split Learning (Full Version) [58.595691399741646]
Split Learning(SL)は、リソース制約のあるクライアントがディープニューラルネットワーク(DNN)を協調的にトレーニングすることを可能にする分散学習アプローチである。
このセットアップにより、SLはデータを共有せずにサーバの能力を活用することができ、機密データを扱うリソース制約のある環境で非常に効果的になる。
我々は、プライベートで検証可能な、堅牢なSL防御スキームであるZORROを提示する。
論文 参考訳(メタデータ) (2025-09-11T18:44:09Z) - ImprovDML: Improved Trade-off in Private Byzantine-Resilient Distributed Machine Learning [22.85986751447643]
一般的な戦略は、Byzantine-Resilientアグリゲーションルールと差分プライバシーメカニズムの統合である。
そこで我々は,プライバシ保護を同時に確保しつつ,モデルの精度を向上する ImprovDML を提案する。
モデル精度と差分プライバシーの間のトレードオフを改善することを実証する。
論文 参考訳(メタデータ) (2025-06-18T06:53:52Z) - Byzantine Outside, Curious Inside: Reconstructing Data Through Malicious Updates [36.2911560725828]
フェデレートラーニング(FL)は、生データを共有せずに分散機械学習を可能にする。
一般に採用されているFLプロトコルでは、プライバシリークが可能である。
FLに新たな脅威モデルを導入し、悪意ある好奇心をそそるクライアントと名づけた。
論文 参考訳(メタデータ) (2025-06-13T02:23:41Z) - Optimizing Cross-Client Domain Coverage for Federated Instruction Tuning of Large Language Models [87.49293964617128]
大規模言語モデル(LLM)のためのFedDIT(Federated Domain-specific instruction tuning)は、分散プライベートデータと限定データを用いて、特定のドメインの性能を向上させることを目的としている。
データ不均一性ではなく、クロスクライアントなドメインカバレッジが重要な要素であることを実証的に証明します。
我々は多様性指向のクライアントセンターの選択と検索に基づく拡張を通じて、このカバレッジを明示的に最大化するアルゴリズムであるFedDCAを紹介する。
論文 参考訳(メタデータ) (2024-09-30T09:34:31Z) - Enhancing Security and Privacy in Federated Learning using Low-Dimensional Update Representation and Proximity-Based Defense [23.280147155814955]
Federated Learning(FL)は、データ所有者がデータをローカライズしながらモデルを協調的にトレーニングできる、有望な機械学習パラダイムである。
その可能性にもかかわらず、FLはクライアントとサーバの両方の信頼性に関する課題に直面している。
我々は,分散学習環境におけるビザンチン攻撃に対するプライバシー保護と抵抗に対処するために,FLURPという新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T06:46:10Z) - Clients Collaborate: Flexible Differentially Private Federated Learning with Guaranteed Improvement of Utility-Privacy Trade-off [31.688806024426928]
我々は、厳格なプライバシー保証を備えた新しいフェデレーション学習フレームワーク、FedCEOを紹介した。
スペクトル空間における高周波成分を柔軟に切り離す能力を示す。
我々は、異なるプライバシー設定の下で、大幅なパフォーマンス改善と厳格なプライバシー保証を示す。
論文 参考訳(メタデータ) (2024-02-10T17:39:34Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Byzantine-Robust Online and Offline Distributed Reinforcement Learning [60.970950468309056]
本稿では,複数のエージェントが環境を探索し,その経験を中央サーバを通じて伝達する分散強化学習環境について考察する。
エージェントの$alpha$-fractionは敵対的であり、任意の偽情報を報告することができる。
我々は、これらの対立エージェントの存在下で、マルコフ決定プロセスの根底にある準最適政策を特定することを模索する。
論文 参考訳(メタデータ) (2022-06-01T00:44:53Z) - Secure Byzantine-Robust Distributed Learning via Clustering [16.85310886805588]
ビザンチンの堅牢性とプライバシを共同で保護するフェデレーション学習システムは、依然としてオープンな問題である。
本研究では,クライアントのプライバシーとロバスト性を同時に保持する分散学習フレームワークであるSHAREを提案する。
論文 参考訳(メタデータ) (2021-10-06T17:40:26Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。