論文の概要: Performance Weighting for Robust Federated Learning Against Corrupted
Sources
- arxiv url: http://arxiv.org/abs/2205.01184v1
- Date: Mon, 2 May 2022 20:01:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-04 14:51:58.483214
- Title: Performance Weighting for Robust Federated Learning Against Corrupted
Sources
- Title(参考訳): 劣化源に対するロバストフェデレーション学習のための性能重み付け
- Authors: Dimitris Stripelis, Marcin Abram, Jose Luis Ambite
- Abstract要約: 分散機械学習の計算パラダイムとしてフェデレートラーニングが登場している。
現実世界のアプリケーションでは、フェデレーションされた環境は、好意的なクライアントと悪意のあるクライアントの混在によって構成される。
局所重みの標準的グローバルアグリゲーション方式は, クライアントの破損の有無で非効率であることを示す。
- 参考スコア(独自算出の注目度): 1.76179873429447
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated Learning has emerged as a dominant computational paradigm for
distributed machine learning. Its unique data privacy properties allow us to
collaboratively train models while offering participating clients certain
privacy-preserving guarantees. However, in real-world applications, a federated
environment may consist of a mixture of benevolent and malicious clients, with
the latter aiming to corrupt and degrade federated model's performance.
Different corruption schemes may be applied such as model poisoning and data
corruption. Here, we focus on the latter, the susceptibility of federated
learning to various data corruption attacks. We show that the standard global
aggregation scheme of local weights is inefficient in the presence of corrupted
clients. To mitigate this problem, we propose a class of task-oriented
performance-based methods computed over a distributed validation dataset with
the goal to detect and mitigate corrupted clients. Specifically, we construct a
robust weight aggregation scheme based on geometric mean and demonstrate its
effectiveness under random label shuffling and targeted label flipping attacks.
- Abstract(参考訳): フェデレーション学習は分散機械学習の主要な計算パラダイムとして登場した。
そのユニークなデータプライバシ特性により、モデルのトレーニングを共同で行なえると同時に、特定のプライバシ保護保証をクライアントに提供することができます。
しかし、現実世界のアプリケーションでは、フェデレーションされた環境は、悪意のあるクライアントと悪意のあるクライアントの混合で構成され、フェデレーションされたモデルのパフォーマンスを腐敗させ、劣化させることを目的としている。
モデル中毒やデータ破損など,さまざまな腐敗スキームが適用可能だ。
ここでは,フェデレーション学習の各種データ破損攻撃に対する感受性を,後者に焦点をあてる。
局所重みの標準的グローバルアグリゲーション方式は, クライアントの破損の有無で非効率であることを示す。
この問題を軽減するために,分散検証データセット上で計算されたタスク指向のパフォーマンスに基づく手法のクラスを提案する。
具体的には,幾何平均に基づく頑健な重み集約スキームを構築し,ランダムラベルシャッフルおよび標的ラベルフリップ攻撃においてその効果を示す。
関連論文リスト
- BRFL: A Blockchain-based Byzantine-Robust Federated Learning Model [8.19957400564017]
分散ノードにデータを格納し、モデルパラメータのみを共有するフェデレーション学習は、この問題に対処するために大きな注目を集めている。
悪質なローカルモデルが集約中のグローバルモデルのパフォーマンスを損なうという、ビザンティン攻撃問題(英語版)によるフェデレートラーニング(英語版)において、課題が生じる。
本稿では、フェデレートラーニングとブロックチェーン技術を組み合わせたByzantine-Robust Federated Learning(BRLF)モデルの統合を提案する。
論文 参考訳(メタデータ) (2023-10-20T10:21:50Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、学習モデルにおけるプライバシの問題に対処するように設計されている。
新しい分散パラダイムは、データのプライバシを保護するが、サーバがローカルデータセットにアクセスできないため、攻撃面を区別する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Anomaly Detection through Unsupervised Federated Learning [0.0]
フェデレートラーニングは、分散リソースを活用する上で最も有望なパラダイムの1つであることが証明されています。
本稿では,前処理フェーズを通じて,クライアントをコミュニティにグループ化する手法を提案する。
結果の異常検出モデルは共有され、同じコミュニティのクライアント内の異常を検出するために使用される。
論文 参考訳(メタデータ) (2022-09-09T08:45:47Z) - RobustFed: A Truth Inference Approach for Robust Federated Learning [9.316565110931743]
フェデレートラーニング(Federated Learning)は、クライアントが中央サーバのオーケストレーションの下で協調的にグローバルなモデルをトレーニングすることを可能にするフレームワークである。
統合学習における集約ステップは、中央サーバがクライアントの動作を管理することができないため、敵攻撃に対して脆弱である。
本稿では,クラウドソーシングにおける真理推論手法に着想を得た新しいロバスト集約アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-18T09:34:57Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Auto-weighted Robust Federated Learning with Corrupted Data Sources [7.475348174281237]
フェデレーション学習はコミュニケーション効率とプライバシ保護のトレーニングプロセスを提供する。
平均損失関数をナイーブに最小化する標準的なフェデレーション学習技術は、データの破損に弱い。
破損したデータソースに対して堅牢性を提供するために、自動重み付けロバストフェデレーテッドラーニング(arfl)を提案します。
論文 参考訳(メタデータ) (2021-01-14T21:54:55Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。