論文の概要: FedCom: A Byzantine-Robust Local Model Aggregation Rule Using Data
Commitment for Federated Learning
- arxiv url: http://arxiv.org/abs/2104.08020v1
- Date: Fri, 16 Apr 2021 10:29:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 14:15:56.831280
- Title: FedCom: A Byzantine-Robust Local Model Aggregation Rule Using Data
Commitment for Federated Learning
- Title(参考訳): fedcom: フェデレーション学習のためのデータコミットメントを用いたビザンチンロバスト局所モデル集約ルール
- Authors: Bo Zhao, Peng Sun, Liming Fang, Tao Wang, Keyu Jiang
- Abstract要約: フェデレーション学習は、複数のクライアントがプライベートデータを開示することなく、統計モデルを協調的にトレーニングできる。
ビザンツの労働者がデータ中毒とモデル中毒を発生させる可能性がある。
既存のByzantine-Robust FLスキームのほとんどは、いくつかの高度な毒殺攻撃に対して効果がないか、またはパブリックな検証データセットを集中化する必要がある。
暗号によるコミットメントの考え方を取り入れた、新しいビザンチン・ロバスト連合学習フレームワークであるFedComを提案する。
- 参考スコア(独自算出の注目度): 8.165895353387853
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning (FL) is a promising privacy-preserving distributed machine
learning methodology that allows multiple clients (i.e., workers) to
collaboratively train statistical models without disclosing private training
data. Due to the characteristics of data remaining localized and the
uninspected on-device training process, there may exist Byzantine workers
launching data poisoning and model poisoning attacks, which would seriously
deteriorate model performance or prevent the model from convergence. Most of
the existing Byzantine-robust FL schemes are either ineffective against several
advanced poisoning attacks or need to centralize a public validation dataset,
which is intractable in FL. Moreover, to the best of our knowledge, none of the
existing Byzantine-robust distributed learning methods could well exert its
power in Non-Independent and Identically distributed (Non-IID) data among
clients. To address these issues, we propose FedCom, a novel Byzantine-robust
federated learning framework by incorporating the idea of commitment from
cryptography, which could achieve both data poisoning and model poisoning
tolerant FL under practical Non-IID data partitions. Specifically, in FedCom,
each client is first required to make a commitment to its local training data
distribution. Then, we identify poisoned datasets by comparing the Wasserstein
distance among commitments submitted by different clients. Furthermore, we
distinguish abnormal local model updates from benign ones by testing each local
model's behavior on its corresponding data commitment. We conduct an extensive
performance evaluation of FedCom. The results demonstrate its effectiveness and
superior performance compared to the state-of-the-art Byzantine-robust schemes
in defending against typical data poisoning and model poisoning attacks under
practical Non-IID data distributions.
- Abstract(参考訳): フェデレーテッド・ラーニング(Federated Learning, FL)は、複数のクライアント(すなわち労働者)がプライベートトレーニングデータを開示することなく、協調的に統計モデルのトレーニングを行うことのできる、プライバシー保護の有望な分散機械学習手法である。
ローカライズされたデータの特徴と、未検査のオンデバイストレーニングプロセスのため、ビザンティンの労働者がデータ中毒やモデル中毒を発生させ、モデルの性能が著しく低下したり、モデルが収束しないようにする可能性がある。
既存のByzantine-robust FLスキームのほとんどは、いくつかの高度な毒殺攻撃に対して効果がないか、あるいはFLで引き起こされる公的な検証データセットを集中化する必要がある。
さらに、我々の知る限り、既存のビザンチン・ロバスト分散学習手法では、クライアント間で非独立性およびIdentically分散(Non-IID)データにその力を発揮できない。
これらの課題に対処するため,我々は,実践的な非IIDデータ分割の下で,データ中毒とモデル中毒耐性FLの両面を達成できる暗号のコミットメントを取り入れた,ビザンチン・ロバスト連邦学習フレームワークであるFedComを提案する。
具体的には、FedComでは、各クライアントがまずローカルなトレーニングデータ配信にコミットする必要がある。
次に、異なるクライアントが提出したコミットメントのうち、Wasserstein距離を比較して有毒なデータセットを同定する。
さらに,各局所モデルの振る舞いを対応するデータコミットメントに基づいてテストすることにより,異常な局所モデル更新と良性モデル更新を区別する。
我々はFedComの広範な性能評価を行う。
その結果, 実用的非IIDデータ分布下での典型的データ中毒やモデル中毒に対する防御において, 最先端のビザンチン・ロバスト方式と比較して, 有効性と優れた性能を示した。
関連論文リスト
- Defending against Data Poisoning Attacks in Federated Learning via User Elimination [0.0]
本稿では,フェデレーションモデルにおける敵ユーザの戦略的排除に焦点を当てた,新たなフレームワークを提案する。
我々は、ローカルトレーニングインスタンスが収集したメタデータと差分プライバシー技術を統合することにより、フェデレートアルゴリズムのアグリゲーションフェーズにおける異常を検出する。
提案手法の有効性を実証し,ユーザのプライバシとモデル性能を維持しながらデータ汚染のリスクを大幅に軽減する。
論文 参考訳(メタデータ) (2024-04-19T10:36:00Z) - Precision Guided Approach to Mitigate Data Poisoning Attacks in Federated Learning [4.907460152017894]
フェデレートラーニング(Federated Learning, FL)は、参加者が共有機械学習モデルを集合的にトレーニングすることを可能にする、協調学習パラダイムである。
データ中毒攻撃に対する現在のFL防衛戦略は、正確性と堅牢性の間のトレードオフを含む。
本稿では、FLにおけるデータ中毒攻撃を効果的に対処するために、ゾーンベースの退避更新(ZBDU)機構を利用するFedZZを提案する。
論文 参考訳(メタデータ) (2024-04-05T14:37:49Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - SureFED: Robust Federated Learning via Uncertainty-Aware Inward and
Outward Inspection [29.491675102478798]
本稿では,堅牢なフェデレーション学習のための新しいフレームワークであるSureFEDを紹介する。
SureFEDは、良識のあるクライアントのローカル情報を使って信頼を確立する。
理論的には、データとモデル中毒攻撃に対するアルゴリズムの堅牢性を証明する。
論文 参考訳(メタデータ) (2023-08-04T23:51:05Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - Benchmarking FedAvg and FedCurv for Image Classification Tasks [1.376408511310322]
本稿では,同じフェデレーションネットワークにおけるデータの統計的不均一性の問題に焦点をあてる。
FedAvg、FedProx、Federated Curvature(FedCurv)など、いくつかのフェデレートラーニングアルゴリズムがすでに提案されている。
この研究の副産物として、FLコミュニティからのさらなる比較を容易にするために使用したデータセットの非IIDバージョンをリリースします。
論文 参考訳(メタデータ) (2023-03-31T10:13:01Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Data-SUITE: Data-centric identification of in-distribution incongruous
examples [81.21462458089142]
Data-SUITEは、ID(In-distriion)データの不連続領域を特定するためのデータ中心のフレームワークである。
我々は,Data-SUITEの性能保証とカバレッジ保証を実証的に検証する。
論文 参考訳(メタデータ) (2022-02-17T18:58:31Z) - Byzantine-Robust Federated Learning via Credibility Assessment on
Non-IID Data [1.4146420810689422]
フェデレートラーニング(Federated Learning)は、リソース制約のあるエッジデバイスがモデルの共同学習を可能にする、新しいフレームワークである。
標準的な連邦学習はビザンツの攻撃に弱い。
非イドデータに対する信頼度評価によるフェデレーション学習のためのビザンチン・ロバストフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-06T12:18:02Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。