論文の概要: Survey on Federated Learning Threats: concepts, taxonomy on attacks and
defences, experimental study and challenges
- arxiv url: http://arxiv.org/abs/2201.08135v1
- Date: Thu, 20 Jan 2022 12:23:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-21 18:15:32.555699
- Title: Survey on Federated Learning Threats: concepts, taxonomy on attacks and
defences, experimental study and challenges
- Title(参考訳): 連合学習の脅威に関する調査--概念、攻撃と防衛に関する分類、実験研究と課題
- Authors: Nuria Rodr\'iguez-Barroso, Daniel Jim\'enez L\'opez, M. Victoria
Luz\'on, Francisco Herrera and Eugenio Mart\'inez-C\'amara
- Abstract要約: フェデレーション・ラーニング(Federated Learning)は、人工知能におけるプライバシ保護要求の解決策として現れる機械学習パラダイムである。
機械学習として、フェデレートされた学習は、学習モデルの完全性とデータのプライバシに対する敵対的な攻撃によって、ローカルおよびグローバルな学習に取り組むための分散アプローチによって脅かされる。
- 参考スコア(独自算出の注目度): 10.177219272933781
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is a machine learning paradigm that emerges as a solution
to the privacy-preservation demands in artificial intelligence. As machine
learning, federated learning is threatened by adversarial attacks against the
integrity of the learning model and the privacy of data via a distributed
approach to tackle local and global learning. This weak point is exacerbated by
the inaccessibility of data in federated learning, which makes harder the
protection against adversarial attacks and evidences the need to furtherance
the research on defence methods to make federated learning a real solution for
safeguarding data privacy. In this paper, we present an extensive review of the
threats of federated learning, as well as as their corresponding
countermeasures, attacks versus defences. This survey provides a taxonomy of
adversarial attacks and a taxonomy of defence methods that depict a general
picture of this vulnerability of federated learning and how to overcome it.
Likewise, we expound guidelines for selecting the most adequate defence method
according to the category of the adversarial attack. Besides, we carry out an
extensive experimental study from which we draw further conclusions about the
behaviour of attacks and defences and the guidelines for selecting the most
adequate defence method according to the category of the adversarial attack.
This study is finished leading to meditated learned lessons and challenges.
- Abstract(参考訳): フェデレーション・ラーニング(Federated Learning)は、人工知能におけるプライバシ保護要求の解決策として現れる機械学習パラダイムである。
マシンラーニングとして、フェデレーション学習は、ローカルおよびグローバル学習に取り組む分散型アプローチによる、学習モデルの完全性とデータのプライバシに対する敵意的な攻撃によって脅かされている。
この弱点は、フェデレーション学習におけるデータのアクセス不能によって悪化し、敵の攻撃に対する保護が難しくなり、フェデレーション学習をデータプライバシを保護する真のソリューションにする防衛方法の研究をさらに進める必要性が証明される。
本稿では,フェデレーション学習の脅威と,それに対応する対策,攻撃対防御について概説する。
この調査は、敵対的攻撃の分類と、この連邦学習の脆弱性の全体像とそれを克服する方法を描写した防衛方法の分類を提供する。
同様に、敵攻撃のカテゴリに応じて、最も適切な防御方法を選択するためのガイドラインを策定する。
また,本研究は,攻撃と防御の行動と,攻撃のカテゴリーに応じた最も適切な防御方法を選択するためのガイドラインについて,さらなる結論を導き出すための広範な実験研究を行う。
この研究は、学習した教訓と課題へと導かれる。
関連論文リスト
- FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - GANcrop: A Contrastive Defense Against Backdoor Attacks in Federated Learning [1.9632700283749582]
本稿では,GANcrop という,協調学習におけるバックドア攻撃に対する防御機構について紹介する。
実験的には、特に非IIDシナリオにおいて、ガンクロップはバックドア攻撃に対して効果的に保護されていることが示されている。
論文 参考訳(メタデータ) (2024-05-31T09:33:16Z) - Adversarial Robustness Unhardening via Backdoor Attacks in Federated
Learning [13.12397828096428]
敵のロバストネス・アンハードニング(ARU)は、分散トレーニング中にモデルロバストネスを意図的に損なうために、敵のサブセットによって使用される。
本研究は,ARUの対人訓練への影響と,中毒やバックドア攻撃に対する既存の堅牢な防御効果を評価する実証実験である。
論文 参考訳(メタデータ) (2023-10-17T21:38:41Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Where Did You Learn That From? Surprising Effectiveness of Membership
Inference Attacks Against Temporally Correlated Data in Deep Reinforcement
Learning [114.9857000195174]
深い強化学習を産業的に広く採用する上での大きな課題は、プライバシー侵害の潜在的な脆弱性である。
本稿では, 深層強化学習アルゴリズムの脆弱性を検証し, メンバーシップ推論攻撃に適応する対戦型攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-08T23:44:57Z) - Robust Federated Learning with Attack-Adaptive Aggregation [45.60981228410952]
フェデレート学習は、モデル中毒やバックドア攻撃など、様々な攻撃に対して脆弱である。
本研究では,ロバスト学習のためのアタック・アダプティブ・アグリゲーション戦略を提案する。
論文 参考訳(メタデータ) (2021-02-10T04:23:23Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。