論文の概要: Emerging Paradigms for Securing Federated Learning Systems
- arxiv url: http://arxiv.org/abs/2509.21147v1
- Date: Thu, 25 Sep 2025 13:34:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.937665
- Title: Emerging Paradigms for Securing Federated Learning Systems
- Title(参考訳): フェデレーション学習システムの創発的パラダイム
- Authors: Amr Akmal Abouelmagd, Amr Hilal,
- Abstract要約: MPC、ホモモルフィック暗号化(HE)、微分プライバシ(DP)などの手法は、しばしば高コストのコンプ・テイタショナル・コストを発生させ、スケーラビリティの制限に悩まされる。
本調査では,フェデレート学習におけるプライバシと効率性の向上を約束する,新たなアプローチについて検討する。
各パラダイムに対して、FLパイプラインとの関連性を評価し、その強み、限界、実践的考察を概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) facilitates collaborative model training while keeping raw data decentralized, making it a conduit for leveraging the power of IoT devices while maintaining privacy of the locally collected data. However, existing privacy- preserving techniques present notable hurdles. Methods such as Multi-Party Computation (MPC), Homomorphic Encryption (HE), and Differential Privacy (DP) often incur high compu- tational costs and suffer from limited scalability. This survey examines emerging approaches that hold promise for enhancing both privacy and efficiency in FL, including Trusted Execution Environments (TEEs), Physical Unclonable Functions (PUFs), Quantum Computing (QC), Chaos-Based Encryption (CBE), Neuromorphic Computing (NC), and Swarm Intelligence (SI). For each paradigm, we assess its relevance to the FL pipeline, outlining its strengths, limitations, and practical considerations. We conclude by highlighting open challenges and prospective research avenues, offering a detailed roadmap for advancing secure and scalable FL systems.
- Abstract(参考訳): Federated Learning(FL)は、生データを分散化しながら協調的なモデルトレーニングを促進し、ローカルに収集されたデータのプライバシを維持しながらIoTデバイスのパワーを活用するためのコンジットである。
しかし、既存のプライバシー保護技術は顕著なハードルとなっている。
MPC(Multi-Party Computation)、HE(Hymomorphic Encryption)、DP(Fariential Privacy)といった手法は、しばしば高コストのComppu-tational Costを発生させ、スケーラビリティの制限に悩まされる。
この調査では、FLにおけるプライバシーと効率の両立を約束する新たなアプローチとして、Trusted Execution Environments(TEE)、Physical Unclonable Function(PUF)、Quantum Computing(QC)、Chaos-Based Encryption(CBE)、Neuromorphic Computing(NC)、Swarm Intelligence(SI)などを検討する。
各パラダイムに対して、FLパイプラインとの関連性を評価し、その強み、限界、実践的考察を概説する。
オープンな課題と先進的な研究方法を強調し、セキュアでスケーラブルなFLシステムを前進させるための詳細なロードマップを提供する。
関連論文リスト
- Closer to Reality: Practical Semi-Supervised Federated Learning for Foundation Model Adaptation [56.36237936346563]
ファンデーションモデル(FM)は顕著な一般化を示すが、下流のタスクに適応する必要がある。
データプライバシー規制のため、クラウドベースのFMはプライベートエッジデータに直接アクセスできない。
エッジデバイスがラベルのない低解像度のデータのみを保持する実践的セミスーパービジョン・フェデレーションラーニング(PSSFL)を導入する。
我々の研究は、フェデレートされたシナリオにおけるスケーラブルでプライバシ保護のFM適応の道を開いた。
論文 参考訳(メタデータ) (2025-08-22T17:47:02Z) - A Privacy-Centric Approach: Scalable and Secure Federated Learning Enabled by Hybrid Homomorphic Encryption [2.611778281107039]
Federated Learning(FL)は、生データを共有せずに協調的なモデルトレーニングを可能にするため、プライバシに敏感なドメインに対して有望なアプローチである。
その可能性にもかかわらず、FLは特に通信オーバーヘッドとデータプライバシの観点から、重大な課題に直面している。
本研究では、対称暗号とHEを組み合わせた暗号プロトコルであるHybrid Homomorphic Encryption(HHE)をFLと効果的に統合し、通信とプライバシーの両方の課題に対処する方法について検討する。
論文 参考訳(メタデータ) (2025-07-20T07:46:53Z) - FuSeFL: Fully Secure and Scalable Cross-Silo Federated Learning [0.696125353550498]
フェデレートラーニング(FL)は、クライアントデータを集中化せずに協調的なモデルトレーニングを可能にするため、プライバシに敏感なドメインには魅力的である。
クロスサイロ設定用に設計された完全セキュアでスケーラブルなFLスキームであるFuSeFLを提案する。
論文 参考訳(メタデータ) (2025-07-18T00:50:44Z) - Secure Distributed Learning for CAVs: Defending Against Gradient Leakage with Leveled Homomorphic Encryption [0.0]
ホモモルフィック暗号化(HE)は、差分プライバシー(DP)とセキュアマルチパーティ計算(SMPC)に代わる有望な代替手段を提供する
資源制約のある環境において,フェデレートラーニング(FL)に最も適したHE方式の評価を行った。
我々は、モデル精度を維持しながら、Gradients (DLG)攻撃からのDeep Leakageを効果的に軽減するHEベースのFLパイプラインを開発した。
論文 参考訳(メタデータ) (2025-06-09T16:12:18Z) - Efficient Full-Stack Private Federated Deep Learning with Post-Quantum Security [17.45950557331482]
フェデレートラーニング(FL)は、データをローカルに保つことによって、ユーザのデータプライバシを保護しながら、協調的なモデルトレーニングを可能にする。
このようなアドバンテージにもかかわらず、FLはトレーニングやデプロイメント中のユーザの更新やモデルパラメータに対するプライバシ攻撃に弱いままである。
私たちは、ポストクォータムセキュアアグリゲーションを提供する新しいフレームワークであるBeskarを紹介します。
論文 参考訳(メタデータ) (2025-05-09T03:20:48Z) - TinyML NLP Scheme for Semantic Wireless Sentiment Classification with Privacy Preservation [49.801175302937246]
本研究は、エッジデバイスにプライバシ保護、エネルギー効率の高いNLPモデルをデプロイする際の洞察を提供する。
セマンティックスプリットラーニング(SL)を,エネルギー効率,プライバシ保護,小型機械学習(TinyML)フレームワークとして導入する。
その結果,FLの4倍,CLの約18倍の再現誤差の増加により,SLは計算能力とCO2排出量を著しく低減し,プライバシーの向上を図った。
論文 参考訳(メタデータ) (2024-11-09T21:26:59Z) - Personalized Wireless Federated Learning for Large Language Models [75.22457544349668]
大規模言語モデル(LLM)は、無線ネットワークにおいて大きな変革をもたらしている。
無線環境では、LLMのトレーニングはセキュリティとプライバシに関する重大な課題に直面している。
本稿では,無線ネットワークにおけるLLMのトレーニング段階の体系的解析を行い,事前学習,命令チューニング,アライメントチューニングを行う。
論文 参考訳(メタデータ) (2024-04-20T02:30:21Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。