論文の概要: FedRP: A Communication-Efficient Approach for Differentially Private Federated Learning Using Random Projection
- arxiv url: http://arxiv.org/abs/2509.10041v1
- Date: Fri, 12 Sep 2025 08:08:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:08.014827
- Title: FedRP: A Communication-Efficient Approach for Differentially Private Federated Learning Using Random Projection
- Title(参考訳): FedRP:ランダムプロジェクションを用いた個人差分学習のためのコミュニケーション効率の良いアプローチ
- Authors: Mohammad Hasan Narimani, Mostafa Tavassolipour,
- Abstract要約: フェデレートラーニング(FL)は、分散デバイス間の協調モデルトレーニングのための革新的なパラダイムを提供する。
その利点にもかかわらず、FLは潜在的な攻撃に対するユーザーのプライバシー保護と通信コストの管理に関する課題に直面している。
本稿では,FedRPと呼ばれる新しいフェデレーション学習アルゴリズムを提案する。このアルゴリズムは,ランダムプロジェクション手法とALMM(Alternating Direction Method of Multipliers)最適化フレームワークを統合する。
- 参考スコア(独自算出の注目度): 1.4552744016611232
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning (FL) offers an innovative paradigm for collaborative model training across decentralized devices, such as smartphones, balancing enhanced predictive performance with the protection of user privacy in sensitive areas like Internet of Things (IoT) and medical data analysis. Despite its advantages, FL encounters significant challenges related to user privacy protection against potential attacks and the management of communication costs. This paper introduces a novel federated learning algorithm called FedRP, which integrates random projection techniques with the Alternating Direction Method of Multipliers (ADMM) optimization framework. This approach enhances privacy by employing random projection to reduce the dimensionality of model parameters prior to their transmission to a central server, reducing the communication cost. The proposed algorithm offers a strong $(\epsilon, \delta)$-differential privacy guarantee, demonstrating resilience against data reconstruction attacks. Experimental results reveal that FedRP not only maintains high model accuracy but also outperforms existing methods, including conventional differential privacy approaches and FedADMM, in terms of both privacy preservation and communication efficiency.
- Abstract(参考訳): フェデレートラーニング(FL)は、スマートフォンなどの分散デバイス間での協調モデルトレーニングのための革新的なパラダイムを提供する。IoT(Internet of Things)や医療データ分析といったセンシティブな領域におけるユーザのプライバシ保護と、高度な予測パフォーマンスのバランスをとる。
その利点にもかかわらず、FLは潜在的な攻撃に対するユーザーのプライバシー保護と通信コストの管理に関する重大な課題に直面している。
本稿では,FedRPと呼ばれる新しいフェデレーション学習アルゴリズムについて紹介する。このアルゴリズムは,ランダムプロジェクション手法とALMM(Alternating Direction Method of Multipliers)最適化フレームワークを統合する。
このアプローチは、ランダムなプロジェクションを用いて、中央サーバへの送信前にモデルパラメータの次元性を低減し、通信コストを低減し、プライバシを向上させる。
提案アルゴリズムは強力な$(\epsilon, \delta)$-differential privacy guaranteeを提供し、データ再構成攻撃に対するレジリエンスを示す。
実験結果から,FedRPは高いモデル精度を維持するだけでなく,従来の差分プライバシーアプローチやFedADMMなど,プライバシ保護と通信効率の両面において,既存の手法よりも優れていることがわかった。
関連論文リスト
- Enhancing Model Privacy in Federated Learning with Random Masking and Quantization [46.915409150222494]
大規模言語モデル(LLM)の台頭は、分散システムに新たな課題をもたらした。
これは、センシティブなデータとプロプライエタリなモデルの両方を保護可能な、フェデレーション付き学習アプローチの必要性を強調している。
モデルパラメータのサブネットワークを隠蔽するためにランダムマスキングを利用するフェデレート学習手法であるFedQSNを提案する。
論文 参考訳(メタデータ) (2025-08-26T10:34:13Z) - FedEM: A Privacy-Preserving Framework for Concurrent Utility Preservation in Federated Learning [17.853502904387376]
Federated Learning (FL)は、分散クライアント間で、ローカルデータを共有せずにモデルの協調的なトレーニングを可能にし、分散システムにおけるプライバシの問題に対処する。
適応雑音注入による制御摂動を組み込んだ新しいアルゴリズムであるフェデレートエラー最小化(FedEM)を提案する。
ベンチマークデータセットの実験結果から、FedEMはプライバシのリスクを著しく低減し、モデルの正確性を保ち、プライバシ保護とユーティリティ保護の堅牢なバランスを達成している。
論文 参考訳(メタデータ) (2025-03-08T02:48:00Z) - Advancing Personalized Federated Learning: Integrative Approaches with AI for Enhanced Privacy and Customization [0.0]
本稿では,最先端AI技術を用いてPFLを強化する新しい手法を提案する。
本稿では、個々のクライアントモデルの性能を高め、堅牢なプライバシ保護機構を保証するモデルを提案する。
この研究は、真のパーソナライズされたプライバシを重視したAIシステムの新たな時代への道を開くものだ。
論文 参考訳(メタデータ) (2025-01-30T07:03:29Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Binary Federated Learning with Client-Level Differential Privacy [7.854806519515342]
フェデレートラーニング(Federated Learning、FL)は、プライバシ保護のための協調学習フレームワークである。
既存のFLシステムはトレーニングアルゴリズムとしてフェデレーション平均(FedAvg)を採用するのが一般的である。
差分プライバシーを保証する通信効率のよいFLトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-07T06:07:04Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Federated Learning with Sparsification-Amplified Privacy and Adaptive
Optimization [27.243322019117144]
フェデレートラーニング(FL)により、分散エージェントは、生データを互いに共有することなく、集中型モデルを共同で学習することができる。
スパーシフィケーションを増幅した新しいFLフレームワークを提案する。
提案手法では,ランダムなスペーシフィケーションと各エージェントの勾配摂動を統合し,プライバシー保証を増幅する。
論文 参考訳(メタデータ) (2020-08-01T20:22:57Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。