論文の概要: Data and Model Poisoning Backdoor Attacks on Wireless Federated
Learning, and the Defense Mechanisms: A Comprehensive Survey
- arxiv url: http://arxiv.org/abs/2312.08667v1
- Date: Thu, 14 Dec 2023 05:52:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-16 00:00:10.085717
- Title: Data and Model Poisoning Backdoor Attacks on Wireless Federated
Learning, and the Defense Mechanisms: A Comprehensive Survey
- Title(参考訳): 無線フェデレート学習におけるデータとモデル中毒バックドア攻撃とその防御機構 : 包括的調査
- Authors: Yichen Wan, Youyang Qu, Wei Ni, Yong Xiang, Longxiang Gao, Ekram
Hossain
- Abstract要約: 無線通信ネットワーク(WCN)への応用については,フェデレートラーニング(FL)がますます検討されている。
一般に、WCNの非独立で同一に分布する(非IID)データは、堅牢性に関する懸念を提起する。
この調査は、最新のバックドア攻撃と防御メカニズムの包括的なレビューを提供する。
- 参考スコア(独自算出の注目度): 28.88186038735176
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to the greatly improved capabilities of devices, massive data, and
increasing concern about data privacy, Federated Learning (FL) has been
increasingly considered for applications to wireless communication networks
(WCNs). Wireless FL (WFL) is a distributed method of training a global deep
learning model in which a large number of participants each train a local model
on their training datasets and then upload the local model updates to a central
server. However, in general, non-independent and identically distributed
(non-IID) data of WCNs raises concerns about robustness, as a malicious
participant could potentially inject a "backdoor" into the global model by
uploading poisoned data or models over WCN. This could cause the model to
misclassify malicious inputs as a specific target class while behaving normally
with benign inputs. This survey provides a comprehensive review of the latest
backdoor attacks and defense mechanisms. It classifies them according to their
targets (data poisoning or model poisoning), the attack phase (local data
collection, training, or aggregation), and defense stage (local training,
before aggregation, during aggregation, or after aggregation). The strengths
and limitations of existing attack strategies and defense mechanisms are
analyzed in detail. Comparisons of existing attack methods and defense designs
are carried out, pointing to noteworthy findings, open challenges, and
potential future research directions related to security and privacy of WFL.
- Abstract(参考訳): デバイスの性能が大幅に向上し、大量のデータが提供され、データのプライバシーに対する懸念が高まっているため、フェデレートラーニング(FL)は無線通信ネットワーク(WCN)へのアプリケーションとしてますます検討されている。
Wireless FL(WFL)は、グローバルなディープラーニングモデルをトレーニングする分散方法であり、多数の参加者がトレーニングデータセット上でローカルモデルをトレーニングし、その後、ローカルモデルの更新を中央サーバにアップロードする。
しかしながら、一般に、非独立かつ同一の(非iidの)wcnsのデータは、悪意のある参加者がwcnに有毒なデータやモデルをアップロードすることでグローバルモデルに"バックドア"を注入する可能性があるため、堅牢性に関する懸念を引き起こす。
これにより、モデルが悪質な入力を特定のターゲットクラスとして誤って分類し、通常は良質な入力で振る舞います。
この調査は、最新のバックドア攻撃と防御メカニズムの包括的なレビューを提供する。
ターゲット(データ中毒、モデル中毒)、攻撃段階(ローカルデータ収集、トレーニング、アグリゲーション)、防衛段階(集約前、集約中、集約後のローカルトレーニング)に応じて分類される。
既存の攻撃戦略と防御機構の強さと限界を詳細に分析する。
既存の攻撃方法と防御設計の比較を行い、注目すべき発見、オープンチャレンジ、およびWFLのセキュリティとプライバシに関する今後の研究方向性を指摘した。
関連論文リスト
- Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Security and Privacy Issues and Solutions in Federated Learning for
Digital Healthcare [0.0]
フェデレートラーニング(Federated Learning)の幅広い攻撃面に基づいて,脆弱性,攻撃,防御を提示する。
我々は、より堅牢なFLに向けた新しい研究の方向性を期待する。
論文 参考訳(メタデータ) (2024-01-16T16:07:53Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - DABS: Data-Agnostic Backdoor attack at the Server in Federated Learning [14.312593000209693]
フェデレートラーニング(FL)は、中央サーバの協調の下で、分散デバイスからローカルモデルを集約することで、グローバルモデルをトレーニングしようとする試みである。
多数の異種デバイスが存在するため、FLは様々な攻撃、特にステルスなバックドア攻撃に対して脆弱である。
我々は,サーバがグローバルモデルを直接変更して,FLシステムにバックドアを施すような,FLの新たなアタックモデル,すなわち,サーバにおけるData-Agnostic Backdoor attack(DABS)を提案する。
論文 参考訳(メタデータ) (2023-05-02T09:04:34Z) - Backdoor Attacks and Defenses in Federated Learning: Survey, Challenges
and Future Research Directions [3.6086478979425998]
Federated Learning(FL)は、個人のプライバシを損なうことなく分散データを使用することが可能な機械学習(ML)アプローチである。
FLにおけるクライアント間のデータの均一な分散は、オーケストレーションサーバがローカルモデル更新の完全性を検証するのを難しくする。
バックドア攻撃では、悪意のあるクライアントからの悪意のあるアップデートを通じて、悪意のある機能をターゲットモデルに挿入する。
論文 参考訳(メタデータ) (2023-03-03T20:54:28Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Untargeted Poisoning Attack Detection in Federated Learning via Behavior
Attestation [7.979659145328856]
Federated Learning(FL)は、機械学習(ML)におけるパラダイムであり、データプライバシ、セキュリティ、アクセス権、異種情報問題へのアクセスを扱う。
その利点にもかかわらず、flベースのml技術によるサイバー攻撃は利益を損なう可能性がある。
悪意のあるワーカを検出するために,状態永続化を通じて個々のノードのトレーニングを監視する防御機構であるattestedflを提案する。
論文 参考訳(メタデータ) (2021-01-24T20:52:55Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。