論文の概要: Understanding Adversarial Transferability in Federated Learning
- arxiv url: http://arxiv.org/abs/2310.00616v1
- Date: Sun, 1 Oct 2023 08:35:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 03:11:08.042176
- Title: Understanding Adversarial Transferability in Federated Learning
- Title(参考訳): 連合学習における逆伝達可能性の理解
- Authors: Yijiang Li, Ying Gao and Haohan Wang
- Abstract要約: 新規かつ実践的な環境での堅牢性とセキュリティの問題について検討する。
悪意のあるクライアントのグループは、トレーニング中にアイデンティティを軽視し、良心的なクライアントとして振る舞うことによって、モデルに影響を与えました。
我々の目標は、この実践的な環境でFLシステムが直面する課題について、完全な理解を提供することです。
- 参考スコア(独自算出の注目度): 16.204192821886927
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the robustness and security issues from a novel and practical
setting: a group of malicious clients has impacted the model during training by
disguising their identities and acting as benign clients, and only revealing
their adversary position after the training to conduct transferable adversarial
attacks with their data, which is usually a subset of the data that FL system
is trained with. Our aim is to offer a full understanding of the challenges the
FL system faces in this practical setting across a spectrum of configurations.
We notice that such an attack is possible, but the federated model is more
robust compared with its centralized counterpart when the accuracy on clean
images is comparable. Through our study, we hypothesized the robustness is from
two factors: the decentralized training on distributed data and the averaging
operation. We provide evidence from both the perspective of empirical
experiments and theoretical analysis. Our work has implications for
understanding the robustness of federated learning systems and poses a
practical question for federated learning applications.
- Abstract(参考訳): 悪意あるクライアントのグループは、そのIDを解き、良心的なクライアントとして振る舞うことによって、訓練中にモデルに影響を与え、訓練後の相手の立場を、FLシステムで訓練されたデータのサブセットであるデータで、転送可能な敵攻撃を行うためにのみ明らかにしている。
我々の目的は、FLシステムが様々な構成でこの実践的な環境で直面する課題をフルに理解することである。
このような攻撃が可能であることに気付きますが、クリーンイメージの精度が同等であれば、フェデレーションモデルの方が集中型モデルよりも堅牢です。
本研究では,分散データにおける分散トレーニングと平均化操作の2つの要因から,ロバスト性を仮定した。
実証実験と理論的解析の両方の観点から証拠を提供する。
本研究は,フェデレートラーニングシステムの堅牢性を理解し,フェデレーションラーニングアプリケーションに対する実践的な疑問を提起する。
関連論文リスト
- Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Delving into the Adversarial Robustness of Federated Learning [41.409961662754405]
フェデレートラーニング(FL)では、モデルは敵の例に対して中心的に訓練されたモデルと同じくらい脆弱である。
FLシステムの精度と堅牢性を改善するために,DBFAT(Decision boundary based Federated Adversarial Training)と呼ばれる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-19T04:54:25Z) - When Do Curricula Work in Federated Learning? [56.88941905240137]
カリキュラム学習は非IID性を大幅に軽減する。
クライアント間でデータ配布を多様化すればするほど、学習の恩恵を受けるようになる。
本稿では,クライアントの現実的格差を生かした新しいクライアント選択手法を提案する。
論文 参考訳(メタデータ) (2022-12-24T11:02:35Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - RobustFed: A Truth Inference Approach for Robust Federated Learning [9.316565110931743]
フェデレートラーニング(Federated Learning)は、クライアントが中央サーバのオーケストレーションの下で協調的にグローバルなモデルをトレーニングすることを可能にするフレームワークである。
統合学習における集約ステップは、中央サーバがクライアントの動作を管理することができないため、敵攻撃に対して脆弱である。
本稿では,クラウドソーシングにおける真理推論手法に着想を得た新しいロバスト集約アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-18T09:34:57Z) - Certifiably-Robust Federated Adversarial Learning via Randomized
Smoothing [16.528628447356496]
本稿では,データプライベートな分散学習を実現するために,スムーズな手法を連携型対人訓練に取り入れる。
実験の結果,このような先進的な対人学習フレームワークは,集中的な訓練によって訓練されたモデルと同じくらい頑健なモデルを提供できることがわかった。
論文 参考訳(メタデータ) (2021-03-30T02:19:45Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z) - FR-Train: A Mutual Information-Based Approach to Fair and Robust
Training [33.385118640843416]
本稿では,公正でロバストなモデルトレーニングを行うFR-Trainを提案する。
我々の実験では、FR-Trainは、データ中毒の存在下での公正さと正確さのほとんど低下を示さなかった。
論文 参考訳(メタデータ) (2020-02-24T13:37:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。