論文の概要: Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning
- arxiv url: http://arxiv.org/abs/2102.00655v1
- Date: Mon, 1 Feb 2021 06:06:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-04 10:10:57.308652
- Title: Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning
- Title(参考訳): 呪いか償還か?
データ不均一性がフェデレーション学習のロバスト性に与える影響
- Authors: Syed Zawad, Ahsan Ali, Pin-Yu Chen, Ali Anwar, Yi Zhou, Nathalie
Baracaldo, Yuan Tian, Feng Yan
- Abstract要約: データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
- 参考スコア(独自算出の注目度): 51.15273664903583
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data heterogeneity has been identified as one of the key features in
federated learning but often overlooked in the lens of robustness to
adversarial attacks. This paper focuses on characterizing and understanding its
impact on backdooring attacks in federated learning through comprehensive
experiments using synthetic and the LEAF benchmarks. The initial impression
driven by our experimental results suggests that data heterogeneity is the
dominant factor in the effectiveness of attacks and it may be a redemption for
defending against backdooring as it makes the attack less efficient, more
challenging to design effective attack strategies, and the attack result also
becomes less predictable. However, with further investigations, we found data
heterogeneity is more of a curse than a redemption as the attack effectiveness
can be significantly boosted by simply adjusting the client-side backdooring
timing. More importantly,data heterogeneity may result in overfitting at the
local training of benign clients, which can be utilized by attackers to
disguise themselves and fool skewed-feature based defenses. In addition,
effective attack strategies can be made by adjusting attack data distribution.
Finally, we discuss the potential directions of defending the curses brought by
data heterogeneity. The results and lessons learned from our extensive
experiments and analysis offer new insights for designing robust federated
learning methods and systems
- Abstract(参考訳): データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本論文では,合成およびLEAFベンチマークを用いた包括的な実験を通じて,フェデレーション学習におけるバックドア攻撃に対する影響を特徴づけ,理解することに焦点を当てる。
実験結果から,データの不均一性は攻撃の有効性の主要な要因であり,攻撃の効率が低下し,効果的な攻撃戦略の設計が困難となり,攻撃結果も予測不能となるため,バックドア攻撃に対する防御の欠如となる可能性が示唆された。
しかし,さらなる調査により,クライアント側バックドアのタイミングを単に調整するだけで,攻撃効果を著しく向上できるため,データの不均一性は償還よりも呪いに近いことが判明した。
さらに重要なのは、データの異質性は、攻撃者が自分自身を偽装し、馬鹿げた機能ベースの防衛に活用することができる良性クライアントのローカルトレーニングでオーバーフィットをもたらす可能性があります。
また、攻撃データ分布を調整することで効果的な攻撃戦略を作成できる。
最後に,データの不均一性によってもたらされる呪いを守る可能性について論じる。
大規模な実験と分析から得られた成果と教訓は、堅牢な連合学習手法とシステムを設計するための新たな洞察を提供する
関連論文リスト
- Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - GANcrop: A Contrastive Defense Against Backdoor Attacks in Federated Learning [1.9632700283749582]
本稿では,GANcrop という,協調学習におけるバックドア攻撃に対する防御機構について紹介する。
実験的には、特に非IIDシナリオにおいて、ガンクロップはバックドア攻撃に対して効果的に保護されていることが示されている。
論文 参考訳(メタデータ) (2024-05-31T09:33:16Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Purifier: Defending Data Inference Attacks via Transforming Confidence
Scores [27.330482508047428]
そこで本研究では,PURIFIER(PURIFIER)を用いたメンバシップ推論攻撃に対する防御手法を提案する。
PURIFIERはメンバーシップ推論攻撃を高い効率と効率で防御する。
PURIFIERは、敵のモデル反転攻撃や属性推論攻撃の防御にも有効である。
論文 参考訳(メタデータ) (2022-12-01T16:09:50Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z) - Characterizing the Evasion Attackability of Multi-label Classifiers [37.00606062677375]
マルチラベル学習システムにおける脱出攻撃は、興味深いが、広く目撃されているが、まれな研究トピックである。
マルチラベルの敵対的脅威の攻撃可能性を決定する重要な要因を特徴づけることが、脆弱性の起源を解釈する鍵である。
グラディラベル空間探索による効率的な経験的攻撃性推定器を提案する。
論文 参考訳(メタデータ) (2020-12-17T07:34:40Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。