論文の概要: Client Clustering Meets Knowledge Sharing: Enhancing Privacy and Robustness in Personalized Peer-to-Peer Learning
- arxiv url: http://arxiv.org/abs/2506.20413v1
- Date: Wed, 25 Jun 2025 13:27:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.751087
- Title: Client Clustering Meets Knowledge Sharing: Enhancing Privacy and Robustness in Personalized Peer-to-Peer Learning
- Title(参考訳): クライアントクラスタリングと知識共有 - パーソナライズされたピアツーピア学習におけるプライバシとロバスト性の向上
- Authors: Mohammad Mahdi Maheri, Denys Herasymuk, Hamed Haddadi,
- Abstract要約: 我々はP4(Personalized, Private, Peer-to-Peer)を開発し、リソースに制約のあるIoTデバイス向けにパーソナライズされたモデルを提供する。
私たちのソリューションでは、クライアントの類似性をプライベートに検出し、協調グループを形成するために、軽量で完全に分散化されたアルゴリズムを採用しています。
P4は、異なるプライベートなピアツーピアアプローチをリードするよりも5%から30%高い精度を実現し、最大30%の悪意のあるクライアントで堅牢性を維持する。
- 参考スコア(独自算出の注目度): 5.881825061973424
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The growing adoption of Artificial Intelligence (AI) in Internet of Things (IoT) ecosystems has intensified the need for personalized learning methods that can operate efficiently and privately across heterogeneous, resource-constrained devices. However, enabling effective personalized learning in decentralized settings introduces several challenges, including efficient knowledge transfer between clients, protection of data privacy, and resilience against poisoning attacks. In this paper, we address these challenges by developing P4 (Personalized, Private, Peer-to-Peer) -- a method designed to deliver personalized models for resource-constrained IoT devices while ensuring differential privacy and robustness against poisoning attacks. Our solution employs a lightweight, fully decentralized algorithm to privately detect client similarity and form collaborative groups. Within each group, clients leverage differentially private knowledge distillation to co-train their models, maintaining high accuracy while ensuring robustness to the presence of malicious clients. We evaluate P4 on popular benchmark datasets using both linear and CNN-based architectures across various heterogeneity settings and attack scenarios. Experimental results show that P4 achieves 5% to 30% higher accuracy than leading differentially private peer-to-peer approaches and maintains robustness with up to 30% malicious clients. Additionally, we demonstrate its practicality by deploying it on resource-constrained devices, where collaborative training between two clients adds only ~7 seconds of overhead.
- Abstract(参考訳): IoT(Internet of Things)エコシステムにおける人工知能(AI)の採用の増加により、異質でリソースに制約のあるデバイス間で効率的かつプライベートに動作可能なパーソナライズされた学習方法の必要性が高まっている。
しかし、分散化された環境で効果的にパーソナライズされた学習を可能にするには、クライアント間の効率的な知識伝達、データのプライバシ保護、中毒攻撃に対するレジリエンスなど、いくつかの課題が伴う。
本稿では,P4(Personalized, Private, Peer-to-Peer)の開発によるこれらの課題に対処する。
私たちのソリューションでは、クライアントの類似性をプライベートに検出し、協調グループを形成するために、軽量で完全に分散化されたアルゴリズムを採用しています。
各グループ内では、クライアントは差分的にプライベートな知識蒸留を利用してモデルをコトレーニングし、悪意のあるクライアントの存在に対して堅牢性を確保しながら高い精度を維持します。
我々は、様々な異種性設定と攻撃シナリオにまたがる線形およびCNNベースのアーキテクチャを用いて、人気のあるベンチマークデータセット上でP4を評価する。
実験の結果,P4はP2Pアプローチよりも5%から30%高い精度を達成し,最大30%の悪意のあるクライアントで堅牢性を維持することがわかった。
さらに、リソース制約のあるデバイスにデプロイすることで、その実用性を実証します。
関連論文リスト
- PA-CFL: Privacy-Adaptive Clustered Federated Learning for Transformer-Based Sales Forecasting on Heterogeneous Retail Data [47.745068077169954]
フェデレートラーニング(FL)により、小売店はプライバシを維持しながら需要予測のためのモデルパラメータを共有できる。
異種小売データの需要予測に適したプライバシ適応クラスタ型フェデレートラーニング(PA-CFL)を提案する。
論文 参考訳(メタデータ) (2025-03-15T18:07:54Z) - Robust Asymmetric Heterogeneous Federated Learning with Corrupted Clients [60.22876915395139]
本稿では、異種・データ破損クライアントをモデルとした頑健な連立学習課題について検討する。
データ破損は、ランダムノイズ、圧縮アーティファクト、現実のデプロイメントにおける環境条件などの要因によって避けられない。
本稿では,これらの問題に対処する新しいロバスト非対称不均一なフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-12T09:52:04Z) - Adaptive Client Selection in Federated Learning: A Network Anomaly Detection Use Case [0.30723404270319693]
本稿では,差分プライバシーとフォールトトレランスを組み込んだFL(Federated Learning)のクライアント選択フレームワークを提案する。
その結果、FedL2Pアプローチと比較して、精度が7%向上し、トレーニング時間が25%短縮された。
論文 参考訳(メタデータ) (2025-01-25T02:50:46Z) - P4: Towards private, personalized, and Peer-to-Peer learning [6.693404985718457]
パーソナライズの主な課題は、クライアントクラスタリングとデータのプライバシである。
P4(Personalized Private Peer-to-Peer)は、各クライアントがパーソナライズされたモデルを受け取ることを保証する手法である。
P4は微分プライベートP2Pの最先端性能を最大40%向上させる。
論文 参考訳(メタデータ) (2024-05-27T23:04:37Z) - Privacy-Preserving, Dropout-Resilient Aggregation in Decentralized Learning [3.9166000694570076]
分散学習(DL)は、集中集約なしでクライアントにトレーニングを分散することで、機械学習の新たなパラダイムを提供する。
DLのピアツーピアモデルは、推論攻撃やプライバシリークを防ぐための課題を提起する。
本研究は,プライバシ保護DLのための3つの秘密共有型ドロップアウトレジリエンスアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-27T19:17:02Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - One-Shot Heterogeneous Federated Learning with Local Model-Guided Diffusion Models [40.83058938096914]
FedLMGは局所モデル誘導拡散モデルを用いた単発フェデレーション学習法である。
クライアントはファンデーションモデルにアクセスする必要はなく、ローカルモデルのトレーニングとアップロードのみを行う。
論文 参考訳(メタデータ) (2023-11-15T11:11:25Z) - P4L: Privacy Preserving Peer-to-Peer Learning for Infrastructureless
Setups [5.601217969637838]
P4Lは、ユーザが非同期で協調的な学習スキームに参加するための、プライバシ保護のためのピアツーピア学習システムである。
私たちの設計では、共有勾配の秘密性と実用性の両方を維持するために、強力な暗号プリミティブを使用します。
論文 参考訳(メタデータ) (2023-02-26T23:30:18Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - PerFED-GAN: Personalized Federated Learning via Generative Adversarial
Networks [46.17495529441229]
フェデレーション学習(Federated Learning)は、AI依存のIoTアプリケーションをデプロイするために使用できる分散機械学習手法である。
本稿では,協調学習とGANに基づく連合学習手法を提案する。
提案手法は,クライアントのモデルアーキテクチャとデータ分布が大きく異なる場合,既存手法の精度を平均42%向上させる。
論文 参考訳(メタデータ) (2022-02-18T12:08:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。