論文の概要: ProxyFL: Decentralized Federated Learning through Proxy Model Sharing
- arxiv url: http://arxiv.org/abs/2111.11343v1
- Date: Mon, 22 Nov 2021 16:47:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 16:54:11.578074
- Title: ProxyFL: Decentralized Federated Learning through Proxy Model Sharing
- Title(参考訳): ProxyFL: Proxy Model Sharingによる分散フェデレーション学習
- Authors: Shivam Kalra, Junfeng Wen, Jesse C. Cresswell, Maksims Volkovs, Hamid
R. Tizhoosh
- Abstract要約: 本稿では,ProxyFLと呼ばれる分散化フェデレーション学習のための通信効率向上手法を提案する。
我々は、ProxyFLが通信オーバーヘッドをはるかに少なくし、より強力なプライバシーを持つ既存の選択肢よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 16.561886683258322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Institutions in highly regulated domains such as finance and healthcare often
have restrictive rules around data sharing. Federated learning is a distributed
learning framework that enables multi-institutional collaborations on
decentralized data with improved protection for each collaborator's data
privacy. In this paper, we propose a communication-efficient scheme for
decentralized federated learning called ProxyFL, or proxy-based federated
learning. Each participant in ProxyFL maintains two models, a private model,
and a publicly shared proxy model designed to protect the participant's
privacy. Proxy models allow efficient information exchange among participants
using the PushSum method without the need of a centralized server. The proposed
method eliminates a significant limitation of canonical federated learning by
allowing model heterogeneity; each participant can have a private model with
any architecture. Furthermore, our protocol for communication by proxy leads to
stronger privacy guarantees using differential privacy analysis. Experiments on
popular image datasets, and a pan-cancer diagnostic problem using over 30,000
high-quality gigapixel histology whole slide images, show that ProxyFL can
outperform existing alternatives with much less communication overhead and
stronger privacy.
- Abstract(参考訳): 金融や医療といった高度に規制された分野の機関は、データ共有に関する制限的なルールを持つことが多い。
フェデレーション学習(federated learning)は分散学習フレームワークであり、分散データの複数機関によるコラボレーションを可能にし、各コラボレータのデータプライバシの保護を改善している。
本稿では,proxyfl(proxy-based federated learning)と呼ばれる分散連合学習のための通信効率の高い手法を提案する。
proxyflの各参加者は、プライベートモデルと、参加者のプライバシを保護するように設計された公開共有プロキシモデルという2つのモデルを維持している。
プロキシモデルは、集中型サーバを必要とせずに、PushSumメソッドを使って参加者間の効率的な情報交換を可能にする。
提案手法は,モデルの不均一性を許容することにより,標準的フェデレーション学習の大幅な制限を解消する。
さらに、プロキシによる通信プロトコルは、差分プライバシー分析を用いてより強力なプライバシー保証をもたらす。
一般的なイメージデータセットに関する実験や、3万以上の高品質なギガピクセルのヒストロジーを用いたパンカンサー診断の問題は、proxyflが通信オーバーヘッドとより強力なプライバシで既存の代替品よりも優れていることを示している。
関連論文リスト
- Lancelot: Towards Efficient and Privacy-Preserving Byzantine-Robust Federated Learning within Fully Homomorphic Encryption [10.685816010576918]
我々は,データプライバシを保ちながら悪意あるクライアント活動を保護するために,完全同型暗号化(FHE)を利用する,革新的で計算効率のよいBRFLフレームワークであるLancelotを提案する。
医用画像診断や広く使われている公開画像データセットを含む大規模なテストでは、Lancelotが既存の手法を著しく上回り、データのプライバシを維持しながら、処理速度を20倍以上に向上させています。
論文 参考訳(メタデータ) (2024-08-12T14:48:25Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Can Public Large Language Models Help Private Cross-device Federated Learning? [58.05449579773249]
言語モデルのプライベート・フェデレーション・ラーニング(FL)について検討する。
公開データは、大小両方の言語モデルのプライバシーとユーティリティのトレードオフを改善するために使われてきた。
提案手法は,プライベートなデータ分布に近い公開データをサンプリングするための理論的基盤を持つ新しい分布マッチングアルゴリズムである。
論文 参考訳(メタデータ) (2023-05-20T07:55:58Z) - Privacy-Preserving Joint Edge Association and Power Optimization for the
Internet of Vehicles via Federated Multi-Agent Reinforcement Learning [74.53077322713548]
プライバシ保護型共同エッジアソシエーションと電力配分問題について検討する。
提案されたソリューションは、最先端のソリューションよりも高いプライバシレベルを維持しながら、魅力的なトレードオフにぶつかる。
論文 参考訳(メタデータ) (2023-01-26T10:09:23Z) - DisPFL: Towards Communication-Efficient Personalized Federated Learning
via Decentralized Sparse Training [84.81043932706375]
本稿では,分散型(ピアツーピア)通信プロトコルであるDis-PFLにおいて,新たな個人化フェデレーション学習フレームワークを提案する。
Dis-PFLはパーソナライズされたスパースマスクを使用して、エッジ上のスパースローカルモデルをカスタマイズする。
本手法は,計算複雑性の異なる異種ローカルクライアントに容易に適応できることを実証する。
論文 参考訳(メタデータ) (2022-06-01T02:20:57Z) - Secure and Privacy-Preserving Federated Learning via Co-Utility [7.428782604099875]
私たちは、参加する仲間にプライバシを提供し、ビザンチンや毒殺攻撃に対するセキュリティを提供する、連合学習フレームワークを構築しています。
更新アグリゲーションによるプライバシ保護とは異なり、我々のアプローチはモデル更新の価値を保ち、従って通常のフェデレーション学習の精度を保っている。
論文 参考訳(メタデータ) (2021-08-04T08:58:24Z) - Privacy-preserving Decentralized Aggregation for Federated Learning [3.9323226496740733]
フェデレーション学習は、複数のリージョンにまたがる分散データを学習するための有望なフレームワークである。
我々は,連合学習のためのプライバシ保存型分散集約プロトコルを開発した。
9 と 15 の分散サイトを持つベンチマークデータセットを用いて,画像分類と次単語予測のアルゴリズムの評価を行った。
論文 参考訳(メタデータ) (2020-12-13T23:45:42Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - Differentially private cross-silo federated learning [16.38610531397378]
厳密なプライバシは、分散機械学習において最重要事項である。
本稿では,いわゆるクロスサイロ・フェデレーション・ラーニング・セッティングにおいて,加算準同型セキュア和プロトコルと差分プライバシーを併用する。
提案手法により,非分散設定に匹敵する予測精度が得られることを示す。
論文 参考訳(メタデータ) (2020-07-10T18:15:10Z) - Decentralised Learning from Independent Multi-Domain Labels for Person
Re-Identification [69.29602103582782]
ディープラーニングは多くのコンピュータビジョンタスクで成功している。
しかし、プライバシー問題に対する意識の高まりは、特に人物の再識別(Re-ID)において、ディープラーニングに新たな課題をもたらす。
我々は,複数のプライバシ保護されたローカルモデル(ローカルクライアント)を同時に学習することにより,汎用的なグローバルモデル(中央サーバ)を構築するための,フェデレート・パーソナライゼーション(FedReID)と呼ばれる新しいパラダイムを提案する。
このクライアントサーバ共同学習プロセスは、プライバシコントロールの下で反復的に実行されるため、分散データを共有したり、収集したりすることなく、分散学習を実現することができる。
論文 参考訳(メタデータ) (2020-06-07T13:32:33Z) - Concentrated Differentially Private and Utility Preserving Federated
Learning [24.239992194656164]
フェデレーション・ラーニング(Federated Learning)とは、エッジデバイスのセットが、中央サーバのオーケストレーションの下でモデルを協調的にトレーニングする、機械学習環境である。
本稿では,モデルユーティリティの劣化を伴わずに,プライバシ問題に対処するフェデレーション学習手法を開発する。
このアプローチのエンドツーエンドのプライバシ保証を厳格に提供し、理論的収束率を分析します。
論文 参考訳(メタデータ) (2020-03-30T19:20:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。