論文の概要: HyFL: A Hybrid Approach For Private Federated Learning
- arxiv url: http://arxiv.org/abs/2302.09904v1
- Date: Mon, 20 Feb 2023 11:02:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 15:41:43.285825
- Title: HyFL: A Hybrid Approach For Private Federated Learning
- Title(参考訳): HyFL: プライベートフェデレーション学習のためのハイブリッドアプローチ
- Authors: Felix Marx, Thomas Schneider, Ajith Suresh, Tobias Wehrle, Christian
Weinert, Hossein Yalame
- Abstract要約: 分散機械学習パラダイムとして、フェデレーション学習(FL)は、トレーニングデータがデバイスを離れることはないため、参加者にプライバシの感覚を伝える。
我々は、プライベートトレーニングと推論とセキュアアグリゲーションと階層FLを組み合わせた新しいフレームワークであるHyFLを提案し、エンドツーエンドの保護と大規模グローバルデプロイメントを容易にする。
- 参考スコア(独自算出の注目度): 14.328781828396856
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As a distributed machine learning paradigm, federated learning (FL) conveys a
sense of privacy to contributing participants because training data never
leaves their devices. However, gradient updates and the aggregated model still
reveal sensitive information. In this work, we propose HyFL, a new framework
that combines private training and inference with secure aggregation and
hierarchical FL to provide end-to-end protection and facilitate large-scale
global deployments. Additionally, we show that HyFL strictly limits the attack
surface for malicious participants: they are restricted to data-poisoning
attacks and cannot significantly reduce accuracy.
- Abstract(参考訳): 分散機械学習パラダイムとして、フェデレーション学習(FL)は、トレーニングデータがデバイスを離れることはないため、参加者にプライバシの感覚を伝える。
しかし、勾配の更新と集約されたモデルはまだ機密情報を明らかにしている。
本研究では,HyFLを提案する。HyFLは,プライベートトレーニングと推論を,セキュアなアグリゲーションと階層的なFLと組み合わせて,エンドツーエンドの保護と大規模グローバル展開を促進するためのフレームワークである。
さらに,hyflは悪意のある参加者に対して攻撃面を厳密に制限していることを示す。
関連論文リスト
- Contrastive encoder pre-training-based clustered federated learning for
heterogeneous data [17.580390632874046]
フェデレートラーニング(FL)は、分散クライアントがデータのプライバシを保持しながら、グローバルモデルを協調的にトレーニングすることを可能にする。
本稿では,モデル収束とFLシステム全体の性能を改善するために,CP-CFL(Contrative Pre-training-based Clustered Federated Learning)を提案する。
論文 参考訳(メタデータ) (2023-11-28T05:44:26Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - No One Left Behind: Inclusive Federated Learning over Heterogeneous
Devices [79.16481453598266]
この問題に対処するクライアント包摂的フェデレーション学習手法であるInclusiveFLを提案する。
InclusiveFLの中核となる考え方は、異なるサイズのモデルを異なる計算能力を持つクライアントに割り当てることである。
また,異なる大きさの複数の局所モデル間で知識を共有する効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-02-16T13:03:27Z) - SecFL: Confidential Federated Learning using TEEs [1.8148198154149398]
信頼された実行環境(TEE)を活用した秘密の連合学習フレームワークSecFLを提案する。
SecFLはTEEエンクレーブ内のグローバルおよびローカルなトレーニングを実行し、特権を持ったアクセスを持つ強力な敵に対する計算の機密性と整合性を保証する。
論文 参考訳(メタデータ) (2021-10-03T11:07:29Z) - Personalized Retrogress-Resilient Framework for Real-World Medical
Federated Learning [8.240098954377794]
本稿では,各クライアントに対して優れたパーソナライズモデルを生成するために,パーソナライズされた回帰耐性フレームワークを提案する。
実世界の皮膚内視鏡的FLデータセットに関する実験により、我々のパーソナライズされた回帰抵抗性フレームワークが最先端のFL手法より優れていることが証明された。
論文 参考訳(メタデータ) (2021-10-01T13:24:29Z) - HyFed: A Hybrid Federated Framework for Privacy-preserving Machine
Learning [7.937196235031144]
フェデレートラーニング(FL)は、クライアントが中央サーバの調整の下でグローバルモデルを共同でトレーニングすることを可能にする。
近年の研究では、FLは、サーバや他のクライアントと共有されるモデルパラメータを通して、クライアントのプライベートデータを漏洩する可能性があることが示されている。
我々は,グローバルモデルの実用性を維持しつつ,FLのプライバシを高めるHyFedフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-21T19:30:43Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - RC-SSFL: Towards Robust and Communication-efficient Semi-supervised
Federated Learning System [25.84191221776459]
Federated Learning(FL)は、新たな分散型人工知能パラダイムである。
現在のシステムは、強い前提に大きく依存している: すべてのクライアントは、豊富な真実をラベル付けしたデータを持っている。
実用的ロバスト・コミュニケーション効率の高い半監視FL(RC-SSFL)システム設計を紹介します。
論文 参考訳(メタデータ) (2020-12-08T14:02:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。