論文の概要: Towards Causal Federated Learning For Enhanced Robustness and Privacy
- arxiv url: http://arxiv.org/abs/2104.06557v1
- Date: Wed, 14 Apr 2021 00:08:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 13:28:52.929738
- Title: Towards Causal Federated Learning For Enhanced Robustness and Privacy
- Title(参考訳): ロバストネスとプライバシ向上のための因果フェデレーション学習に向けて
- Authors: Sreya Francis, Irene Tenison, Irina Rish
- Abstract要約: フェデレーションラーニングは、新たなプライバシー保護型分散機械学習アプローチである。
参加するすべてのクライアントにまたがるデータサンプルは通常独立ではなく、同一に配布される。
本稿では,連帯学習環境において,参加するすべてのクライアントに共通する不変(causal)特徴の学習手法を提案する。
- 参考スコア(独自算出の注目度): 5.858642952428615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning is an emerging privacy-preserving distributed machine
learning approach to building a shared model by performing distributed training
locally on participating devices (clients) and aggregating the local models
into a global one. As this approach prevents data collection and aggregation,
it helps in reducing associated privacy risks to a great extent. However, the
data samples across all participating clients are usually not independent and
identically distributed (non-iid), and Out of Distribution(OOD) generalization
for the learned models can be poor. Besides this challenge, federated learning
also remains vulnerable to various attacks on security wherein a few malicious
participating entities work towards inserting backdoors, degrading the
generated aggregated model as well as inferring the data owned by participating
entities. In this paper, we propose an approach for learning invariant (causal)
features common to all participating clients in a federated learning setup and
analyze empirically how it enhances the Out of Distribution (OOD) accuracy as
well as the privacy of the final learned model.
- Abstract(参考訳): Federated Learningは、参加するデバイス(クライアント)上でローカルに分散トレーニングを実行し、ローカルモデルをグローバルなモデルに集約することで、共有モデルを構築するための、新たなプライバシ保護型分散機械学習アプローチである。
このアプローチはデータの収集と集約を防ぐため、関連するプライバシのリスクを大幅に削減するのに役立つ。
しかしながら、参加する全クライアントにまたがるデータサンプルは通常独立ではなく、同じ分散(非iid)であり、学習モデルの分散(ood)の一般化は貧弱である。
この課題に加えて、フェデレーション学習は、いくつかの悪意のある関係者がバックドアを挿入したり、生成された集約モデルを分解したり、関係者が所有するデータを推測したりする、セキュリティに対するさまざまな攻撃にも脆弱である。
本稿では,連帯学習環境において,参加するすべてのクライアントに共通する不変性(causal)特徴を学習する手法を提案し,分散性(out of distribution, ood)の精度と最終学習モデルのプライバシを実証的に解析する。
関連論文リスト
- FedGen: Generalizable Federated Learning for Sequential Data [8.784435748969806]
多くの実世界の分散環境では、バイアスとデータサンプリングの問題により、急激な相関が存在する。
我々はFedGenという汎用的なフェデレーション学習フレームワークを提案し、クライアントが素早い特徴と不変な特徴を識別および識別できるようにする。
FedGenは、より優れた一般化を実現し、現在のフェデレーション学習手法の精度を24%以上上回るモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-11-03T15:48:14Z) - Certified Robustness in Federated Learning [54.03574895808258]
我々は,フェデレーショントレーニングとパーソナライゼーション,および認定ロバストネスの相互作用について検討した。
単純なフェデレーション平均化技術は, より正確であるだけでなく, より精度の高いロバストモデルの構築にも有効であることがわかった。
論文 参考訳(メタデータ) (2022-06-06T12:10:53Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - FedRAD: Federated Robust Adaptive Distillation [7.775374800382709]
一般的にモデルの更新を集約するコラボレーション学習フレームワークは、敵のクライアントによる毒殺攻撃のモデルに対して脆弱である。
本稿では,新たなロバスト適応蒸留法 (FedRAD) を提案する。
その結果,FedRADは敵の存在や異種データ分布において,他のアグリゲータよりも優れていた。
論文 参考訳(メタデータ) (2021-12-02T16:50:57Z) - FedH2L: Federated Learning with Model and Statistical Heterogeneity [75.61234545520611]
フェデレートラーニング(FL)は、分散参加者が個々のデータのプライバシを犠牲にすることなく、強力なグローバルモデルを集合的に学習することを可能にする。
我々はFedH2Lを導入し、これはモデルアーキテクチャに非依存であり、参加者間で異なるデータ分散に対して堅牢である。
パラメータや勾配を共有するアプローチとは対照的に、FedH2Lは相互蒸留に依存し、参加者間で共有シードセットの後方のみを分散的に交換する。
論文 参考訳(メタデータ) (2021-01-27T10:10:18Z) - Federated Learning in Adversarial Settings [0.8701566919381224]
フェデレートされた学習スキームは、堅牢性、プライバシ、帯域幅効率、モデルの精度の異なるトレードオフを提供します。
この拡張は、厳格なプライバシー要件があっても、プライベートではないがロバストなスキームと同じくらい効率的に機能することを示す。
これは差別化プライバシとロバストネスの基本的なトレードオフの可能性を示している。
論文 参考訳(メタデータ) (2020-10-15T14:57:02Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - Decentralised Learning from Independent Multi-Domain Labels for Person
Re-Identification [69.29602103582782]
ディープラーニングは多くのコンピュータビジョンタスクで成功している。
しかし、プライバシー問題に対する意識の高まりは、特に人物の再識別(Re-ID)において、ディープラーニングに新たな課題をもたらす。
我々は,複数のプライバシ保護されたローカルモデル(ローカルクライアント)を同時に学習することにより,汎用的なグローバルモデル(中央サーバ)を構築するための,フェデレート・パーソナライゼーション(FedReID)と呼ばれる新しいパラダイムを提案する。
このクライアントサーバ共同学習プロセスは、プライバシコントロールの下で反復的に実行されるため、分散データを共有したり、収集したりすることなく、分散学習を実現することができる。
論文 参考訳(メタデータ) (2020-06-07T13:32:33Z) - Survey of Personalization Techniques for Federated Learning [0.08594140167290096]
フェデレートされた機械学習は、プライバシを損なうことなく、プライベートな分散データから機械学習モデルを学習することを可能にする。
本稿では、パーソナライズの必要性を強調し、このトピックに関する最近の研究について調査する。
論文 参考訳(メタデータ) (2020-03-19T10:47:55Z) - Think Locally, Act Globally: Federated Learning with Local and Global
Representations [92.68484710504666]
フェデレートラーニング(Federated Learning)とは、複数のデバイスに分散したプライベートデータ上でモデルをトレーニングする手法である。
本稿では,各デバイス上でコンパクトな局所表現を共同で学習する新しいフェデレーション学習アルゴリズムを提案する。
また、プライバシが鍵となる実世界のモバイルデータから、パーソナライズされた気分予測のタスクを評価する。
論文 参考訳(メタデータ) (2020-01-06T12:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。