論文の概要: Universal Adversarial Backdoor Attacks to Fool Vertical Federated
Learning in Cloud-Edge Collaboration
- arxiv url: http://arxiv.org/abs/2304.11432v1
- Date: Sat, 22 Apr 2023 15:31:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 18:29:08.638340
- Title: Universal Adversarial Backdoor Attacks to Fool Vertical Federated
Learning in Cloud-Edge Collaboration
- Title(参考訳): クラウドエッジコラボレーションにおける垂直的フェデレーション学習のためのユニバーサル・アタック
- Authors: Peng Chen, Xin Du, Zhihui Lu and Hongfeng Chai
- Abstract要約: 本稿では,二元分類タスクの文脈における垂直連合学習(VFL)の脆弱性について検討する。
VFLの予測に悪影響を及ぼすため,UAB攻撃を導入した。
我々の手法は既存の最先端の手法を超越し、最大100%のバックドアタスク性能を実現している。
- 参考スコア(独自算出の注目度): 13.067285306737675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vertical federated learning (VFL) is a cloud-edge collaboration paradigm that
enables edge nodes, comprising resource-constrained Internet of Things (IoT)
devices, to cooperatively train artificial intelligence (AI) models while
retaining their data locally. This paradigm facilitates improved privacy and
security for edges and IoT devices, making VFL an essential component of
Artificial Intelligence of Things (AIoT) systems. Nevertheless, the partitioned
structure of VFL can be exploited by adversaries to inject a backdoor, enabling
them to manipulate the VFL predictions. In this paper, we aim to investigate
the vulnerability of VFL in the context of binary classification tasks. To this
end, we define a threat model for backdoor attacks in VFL and introduce a
universal adversarial backdoor (UAB) attack to poison the predictions of VFL.
The UAB attack, consisting of universal trigger generation and clean-label
backdoor injection, is incorporated during the VFL training at specific
iterations. This is achieved by alternately optimizing the universal trigger
and model parameters of VFL sub-problems. Our work distinguishes itself from
existing studies on designing backdoor attacks for VFL, as those require the
knowledge of auxiliary information not accessible within the split VFL
architecture. In contrast, our approach does not necessitate any additional
data to execute the attack. On the LendingClub and Zhongyuan datasets, our
approach surpasses existing state-of-the-art methods, achieving up to 100\%
backdoor task performance while maintaining the main task performance. Our
results in this paper make a major advance to revealing the hidden backdoor
risks of VFL, hence paving the way for the future development of secure AIoT.
- Abstract(参考訳): Vertical Federated Learning(VFL)は、エッジノードがリソース制約のあるモノのインターネット(IoT)デバイスからなり、データをローカルに保持しながら人工知能(AI)モデルを協調的にトレーニングできるクラウドエッジコラボレーションパラダイムである。
このパラダイムにより、エッジとIoTデバイスのプライバシとセキュリティが改善され、VFLはAIoT(Artificial Intelligence of Things)システムの基本コンポーネントになる。
それでも、VFLの分割された構造は、敵がバックドアを注入するために利用することができ、VFL予測を操作できる。
本稿では,バイナリ分類タスクの文脈におけるVFLの脆弱性について検討する。
この目的のために,VFL におけるバックドア攻撃の脅威モデルを定義し,VFL の予測に悪影響を及ぼすユニバーサル・逆バックドア (UAB) 攻撃を導入する。
ユニバーサルトリガー生成とクリーンラベルバックドア注入からなるuab攻撃は、特定のイテレーションでのvflトレーニング中に組み込まれる。
これはvflサブプロブレムのユニバーサルトリガとモデルパラメータを交互に最適化することで達成される。
我々の研究は、分割されたVFLアーキテクチャではアクセスできない補助情報の知識を必要とするため、VFLのバックドアアタックの設計に関する既存の研究とは異なる。
対照的に、攻撃を実行するには追加のデータを必要としない。
LendingClubとZhongyuanのデータセットでは、我々のアプローチは既存の最先端の手法を超え、メインタスクのパフォーマンスを維持しながら、最大100倍のバックドアタスクパフォーマンスを実現しています。
本稿は,VFLの隠れたバックドアリスクを明らかにするために大きく進展し,将来的なセキュアなAIoT開発への道を開いたものである。
関連論文リスト
- BadSFL: Backdoor Attack against Scaffold Federated Learning [16.104941796138128]
フェデレートラーニング(FL)は、分散クライアント上のディープラーニングモデルのトレーニングにより、データのプライバシを保護します。
BadSFLは、非IID環境での足場集約アルゴリズムを用いて、FLフレームワーク用に設計された新しいバックドアアタック手法である。
BadSFLは、グローバルモデルで60ラウンド以上有効であり、既存のベースライン攻撃の最大3倍の長さである。
論文 参考訳(メタデータ) (2024-11-25T07:46:57Z) - VFLIP: A Backdoor Defense for Vertical Federated Learning via Identification and Purification [2.598981024199416]
VFLIP (Vertical Federated Learning) を専門とする最初のバックドアディフェンスについて紹介する。
VFLIPは推論段階で動作する識別と浄化技術を採用し、バックドア攻撃に対する堅牢性を大幅に向上させる。
我々は, CIFAR10, CINIC10, Imagenette, NUS-WIDE, BankMarketingで広範囲にわたる実験を行い, VFLIPがVFLのバックドア攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2024-08-28T07:31:32Z) - UIFV: Data Reconstruction Attack in Vertical Federated Learning [5.404398887781436]
Vertical Federated Learning (VFL)は、参加者が生のプライベートデータを共有することなく、協調的な機械学習を促進する。
近年の研究では、学習プロセス中にデータ漏洩によって、敵が機密性を再構築する可能性のあるプライバシーリスクが明らかにされている。
我々の研究は、実用的なVFLアプリケーションに真の脅威をもたらす、VFLシステム内の深刻なプライバシー上の脆弱性を露呈する。
論文 参考訳(メタデータ) (2024-06-18T13:18:52Z) - Lurking in the shadows: Unveiling Stealthy Backdoor Attacks against Personalized Federated Learning [31.386836775526685]
PFLシステムに適用可能なステルスで効果的なバックドア攻撃戦略である textitPFedBA を提案する。
我々の研究は、PFLシステムに対する微妙ながら強力なバックドアの脅威に光を当て、新たなバックドアの課題に対する防衛を強化するようコミュニティに促している。
論文 参考訳(メタデータ) (2024-06-10T12:14:05Z) - BadVFL: Backdoor Attacks in Vertical Federated Learning [22.71527711053385]
フェデレートラーニング(FL)は、複数のパーティがデータを共有することなく、機械学習モデルを協調的にトレーニングすることを可能にする。
本稿では,VFLのロバスト性,特にバックドアアタックに焦点をあてる。
VFLでは,ラベル推論とバックドアフェーズという2つのフェーズからなる第1種クリーンラベルバックドアアタックが提案されている。
論文 参考訳(メタデータ) (2023-04-18T09:22:32Z) - Revisiting Personalized Federated Learning: Robustness Against Backdoor
Attacks [53.81129518924231]
pFLフレームワークにおけるバックドア攻撃の最初の研究を行う。
モデル共有部分を持つpFL法は,バックドア攻撃に対するロバスト性を大幅に向上させることができることを示す。
本稿では,バックドア攻撃に対する防御性能を実証的に向上する軽量防御手法Simple-Tuningを提案する。
論文 参考訳(メタデータ) (2023-02-03T11:58:14Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z) - Wireless Communications for Collaborative Federated Learning [160.82696473996566]
IoT(Internet of Things)デバイスは、収集したデータを中央のコントローラに送信することができず、機械学習モデルをトレーニングすることができる。
GoogleのセミナルFLアルゴリズムでは、すべてのデバイスを中央コントローラに直接接続する必要がある。
本稿では,コラボレーティブFL(CFL)と呼ばれる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T20:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。