論文の概要: P4L: Privacy Preserving Peer-to-Peer Learning for Infrastructureless
Setups
- arxiv url: http://arxiv.org/abs/2302.13438v1
- Date: Sun, 26 Feb 2023 23:30:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 17:08:58.338471
- Title: P4L: Privacy Preserving Peer-to-Peer Learning for Infrastructureless
Setups
- Title(参考訳): p4l: インフラストラクチャレスセットアップのためのピアツーピア学習のプライバシ保護
- Authors: Ioannis Arapakis, Panagiotis Papadopoulos, Kleomenis Katevas, Diego
Perino
- Abstract要約: P4Lは、ユーザが非同期で協調的な学習スキームに参加するための、プライバシ保護のためのピアツーピア学習システムである。
私たちの設計では、共有勾配の秘密性と実用性の両方を維持するために、強力な暗号プリミティブを使用します。
- 参考スコア(独自算出の注目度): 5.601217969637838
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributed (or Federated) learning enables users to train machine learning
models on their very own devices, while they share only the gradients of their
models usually in a differentially private way (utility loss). Although such a
strategy provides better privacy guarantees than the traditional centralized
approach, it requires users to blindly trust a centralized infrastructure that
may also become a bottleneck with the increasing number of users. In this
paper, we design and implement P4L: a privacy preserving peer-to-peer learning
system for users to participate in an asynchronous, collaborative learning
scheme without requiring any sort of infrastructure or relying on differential
privacy. Our design uses strong cryptographic primitives to preserve both the
confidentiality and utility of the shared gradients, a set of peer-to-peer
mechanisms for fault tolerance and user churn, proximity and cross device
communications. Extensive simulations under different network settings and ML
scenarios for three real-life datasets show that P4L provides competitive
performance to baselines, while it is resilient to different poisoning attacks.
We implement P4L and experimental results show that the performance overhead
and power consumption is minimal (less than 3mAh of discharge).
- Abstract(参考訳): 分散(あるいはフェデレーション付き)学習は、ユーザが自身のデバイス上で機械学習モデルをトレーニングすることを可能にすると同時に、通常、差分プライベートな方法でモデルの勾配のみを共有する(ユーティリティ損失)。
このような戦略は、従来の集中型アプローチよりも優れたプライバシー保証を提供するが、ユーザの増加とともにボトルネックとなるような集中型インフラストラクチャを盲目的に信頼する必要がある。
本稿では,p4l(p4l:p2p学習システム)を設計・実装した。
当社の設計では、強い暗号プリミティブを使用して、フォールトトレランスとユーザチャーン、近接、デバイス間の通信のためのピアツーピア機構である共有勾配の機密性と有用性を保存する。
異なるネットワーク設定と3つの実生活データセットのMLシナリオによる大規模なシミュレーションは、P4Lがベースラインと競合するパフォーマンスを提供する一方で、異なる中毒攻撃に対する耐性を示していることを示している。
我々はP4Lを実装し, 性能のオーバーヘッドと消費電力が最小限(放電3mAh以下)であることを示す実験結果を得た。
関連論文リスト
- DMM: Distributed Matrix Mechanism for Differentially-Private Federated Learning using Packed Secret Sharing [51.336015600778396]
フェデレーテッド・ラーニング(FL)は最近、産業とアカデミックの両方で多くの注目を集めています。
FLでは、機械学習モデルは、複数のラウンドにまたがって委員会に配置されたさまざまなエンドユーザのデータを使用して訓練される。
このようなデータは、しばしばセンシティブであるため、FLの主な課題は、モデルの実用性を維持しながらプライバシを提供することである。
論文 参考訳(メタデータ) (2024-10-21T16:25:14Z) - P4: Towards private, personalized, and Peer-to-Peer learning [6.693404985718457]
パーソナライズの主な課題は、クライアントクラスタリングとデータのプライバシである。
P4(Personalized Private Peer-to-Peer)は、各クライアントがパーソナライズされたモデルを受け取ることを保証する手法である。
P4は微分プライベートP2Pの最先端性能を最大40%向上させる。
論文 参考訳(メタデータ) (2024-05-27T23:04:37Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - SaFL: Sybil-aware Federated Learning with Application to Face
Recognition [13.914187113334222]
Federated Learning(FL)は、顧客間で共同学習を行う機械学習パラダイムである。
マイナス面として、FLは研究を開始したばかりのセキュリティとプライバシに関する懸念を提起している。
本稿では,SAFL と呼ばれる FL の毒殺攻撃に対する新しい防御法を提案する。
論文 参考訳(メタデータ) (2023-11-07T21:06:06Z) - Evaluating Privacy Leakage in Split Learning [8.841387955312669]
オンデバイス機械学習は、推論中にサードパーティサーバと生データを共有しないようにする。
Split Learning(SL)は、制限を克服できる有望なアプローチである。
SLでは、大きな機械学習モデルが2つの部分に分割され、大きな部分はサーバ側にあり、小さな部分はデバイス上で実行される。
論文 参考訳(メタデータ) (2023-05-22T13:00:07Z) - FedDBL: Communication and Data Efficient Federated Deep-Broad Learning
for Histopathological Tissue Classification [65.7405397206767]
本稿では,FedDBL(Federated Deep-Broad Learning)を提案する。
FedDBLは1ラウンドの通信と限られたトレーニングサンプルで競合相手をはるかに上回り、マルチラウンドの通信で同等のパフォーマンスを達成している。
異なるクライアント間でのデータやディープモデルを共有しないため、プライバシ問題は十分に解決されており、モデルのセキュリティはモデル反転攻撃のリスクなしに保証される。
論文 参考訳(メタデータ) (2023-02-24T14:27:41Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Efficient Differentially Private Secure Aggregation for Federated
Learning via Hardness of Learning with Errors [1.4680035572775534]
フェデレーション機械学習はエッジコンピューティングを活用して、ネットワークユーザデータからモデルを開発する。
連邦学習におけるプライバシーは依然として大きな課題である。
マルチパーティ計算を用いた環境アグリゲーションの最近の進歩は、サードパーティの必要性を排除している。
そこで本研究では,新たな個人的かつ悪意のあるセキュアなアグリゲーションプロトコルを活用した,新たなフェデレーション学習プロトコルを提案する。
論文 参考訳(メタデータ) (2021-12-13T18:31:08Z) - Mobility-Aware Cluster Federated Learning in Hierarchical Wireless
Networks [81.83990083088345]
我々は,無線ネットワークにおける階層型フェデレーション学習(HFL)アルゴリズムを特徴付ける理論モデルを開発した。
分析の結果,HFLの学習性能は,ハイモービル利用者の学習能力が著しく低下していることが判明した。
これらの問題を回避するため,我々はMACFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-20T10:46:58Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - PPFL: Privacy-preserving Federated Learning with Trusted Execution
Environments [10.157652550610017]
モバイルシステム向けのプライバシー保護フェデレーションラーニングフレームワークの提案と実装を行います。
我々は,クライアント上でのTrusted Execution Environments(TEEs)をローカルトレーニング,サーバ上でのセキュアアグリゲーションに活用する。
実装の性能評価の結果,PPFLはクライアント側で小さなシステムオーバーヘッドを発生させながら,プライバシーを著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-04-29T14:46:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。