論文の概要: Universal Adversarial Backdoor Attacks to Fool Vertical Federated
Learning in Cloud-Edge Collaboration
- arxiv url: http://arxiv.org/abs/2304.11432v1
- Date: Sat, 22 Apr 2023 15:31:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 18:29:08.638340
- Title: Universal Adversarial Backdoor Attacks to Fool Vertical Federated
Learning in Cloud-Edge Collaboration
- Title(参考訳): クラウドエッジコラボレーションにおける垂直的フェデレーション学習のためのユニバーサル・アタック
- Authors: Peng Chen, Xin Du, Zhihui Lu and Hongfeng Chai
- Abstract要約: 本稿では,二元分類タスクの文脈における垂直連合学習(VFL)の脆弱性について検討する。
VFLの予測に悪影響を及ぼすため,UAB攻撃を導入した。
我々の手法は既存の最先端の手法を超越し、最大100%のバックドアタスク性能を実現している。
- 参考スコア(独自算出の注目度): 13.067285306737675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vertical federated learning (VFL) is a cloud-edge collaboration paradigm that
enables edge nodes, comprising resource-constrained Internet of Things (IoT)
devices, to cooperatively train artificial intelligence (AI) models while
retaining their data locally. This paradigm facilitates improved privacy and
security for edges and IoT devices, making VFL an essential component of
Artificial Intelligence of Things (AIoT) systems. Nevertheless, the partitioned
structure of VFL can be exploited by adversaries to inject a backdoor, enabling
them to manipulate the VFL predictions. In this paper, we aim to investigate
the vulnerability of VFL in the context of binary classification tasks. To this
end, we define a threat model for backdoor attacks in VFL and introduce a
universal adversarial backdoor (UAB) attack to poison the predictions of VFL.
The UAB attack, consisting of universal trigger generation and clean-label
backdoor injection, is incorporated during the VFL training at specific
iterations. This is achieved by alternately optimizing the universal trigger
and model parameters of VFL sub-problems. Our work distinguishes itself from
existing studies on designing backdoor attacks for VFL, as those require the
knowledge of auxiliary information not accessible within the split VFL
architecture. In contrast, our approach does not necessitate any additional
data to execute the attack. On the LendingClub and Zhongyuan datasets, our
approach surpasses existing state-of-the-art methods, achieving up to 100\%
backdoor task performance while maintaining the main task performance. Our
results in this paper make a major advance to revealing the hidden backdoor
risks of VFL, hence paving the way for the future development of secure AIoT.
- Abstract(参考訳): Vertical Federated Learning(VFL)は、エッジノードがリソース制約のあるモノのインターネット(IoT)デバイスからなり、データをローカルに保持しながら人工知能(AI)モデルを協調的にトレーニングできるクラウドエッジコラボレーションパラダイムである。
このパラダイムにより、エッジとIoTデバイスのプライバシとセキュリティが改善され、VFLはAIoT(Artificial Intelligence of Things)システムの基本コンポーネントになる。
それでも、VFLの分割された構造は、敵がバックドアを注入するために利用することができ、VFL予測を操作できる。
本稿では,バイナリ分類タスクの文脈におけるVFLの脆弱性について検討する。
この目的のために,VFL におけるバックドア攻撃の脅威モデルを定義し,VFL の予測に悪影響を及ぼすユニバーサル・逆バックドア (UAB) 攻撃を導入する。
ユニバーサルトリガー生成とクリーンラベルバックドア注入からなるuab攻撃は、特定のイテレーションでのvflトレーニング中に組み込まれる。
これはvflサブプロブレムのユニバーサルトリガとモデルパラメータを交互に最適化することで達成される。
我々の研究は、分割されたVFLアーキテクチャではアクセスできない補助情報の知識を必要とするため、VFLのバックドアアタックの設計に関する既存の研究とは異なる。
対照的に、攻撃を実行するには追加のデータを必要としない。
LendingClubとZhongyuanのデータセットでは、我々のアプローチは既存の最先端の手法を超え、メインタスクのパフォーマンスを維持しながら、最大100倍のバックドアタスクパフォーマンスを実現しています。
本稿は,VFLの隠れたバックドアリスクを明らかにするために大きく進展し,将来的なセキュアなAIoT開発への道を開いたものである。
関連論文リスト
- Decentralized Federated Learning: A Survey and Perspective [66.53979312941439]
分散FL(DFL)は、中央サーバーを必要としない分散ネットワークアーキテクチャである。
DFLはクライアント間の直接通信を可能にし、通信リソースの大幅な節約をもたらす。
論文 参考訳(メタデータ) (2023-06-02T15:12:58Z) - BadVFL: Backdoor Attacks in Vertical Federated Learning [22.71527711053385]
フェデレートラーニング(FL)は、複数のパーティがデータを共有することなく、機械学習モデルを協調的にトレーニングすることを可能にする。
本稿では,VFLのロバスト性,特にバックドアアタックに焦点をあてる。
VFLでは,ラベル推論とバックドアフェーズという2つのフェーズからなる第1種クリーンラベルバックドアアタックが提案されている。
論文 参考訳(メタデータ) (2023-04-18T09:22:32Z) - Backdoor Attacks and Defenses in Federated Learning: Survey, Challenges
and Future Research Directions [3.6086478979425998]
Federated Learning(FL)は、個人のプライバシを損なうことなく分散データを使用することが可能な機械学習(ML)アプローチである。
FLにおけるクライアント間のデータの均一な分散は、オーケストレーションサーバがローカルモデル更新の完全性を検証するのを難しくする。
バックドア攻撃では、悪意のあるクライアントからの悪意のあるアップデートを通じて、悪意のある機能をターゲットモデルに挿入する。
論文 参考訳(メタデータ) (2023-03-03T20:54:28Z) - Revisiting Personalized Federated Learning: Robustness Against Backdoor
Attacks [53.81129518924231]
pFLフレームワークにおけるバックドア攻撃の最初の研究を行う。
モデル共有部分を持つpFL法は,バックドア攻撃に対するロバスト性を大幅に向上させることができることを示す。
本稿では,バックドア攻撃に対する防御性能を実証的に向上する軽量防御手法Simple-Tuningを提案する。
論文 参考訳(メタデータ) (2023-02-03T11:58:14Z) - Backdoor Attacks in Peer-to-Peer Federated Learning [13.61907064494731]
Peer-to-Peer Federated Learning (P2PFL)は、プライバシと信頼性の両面でアドバンテージを提供する。
本稿では,P2PFLに対する新たなバックドア攻撃を提案する。
論文 参考訳(メタデータ) (2023-01-23T21:49:28Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z) - Dynamic backdoor attacks against federated learning [0.5482532589225553]
Federated Learning(FL)は、データプライバシとセキュリティを損なうことなく、何百万人もの参加者が協力してモデルをトレーニングできる、新しい機械学習フレームワークである。
本稿では、FL設定下での動的バックドア攻撃に着目し、敵の目標は、ターゲットタスクにおけるモデルの性能を低下させることである。
我々の知る限りでは、FL設定下での動的バックドア攻撃の研究に焦点を当てた最初の論文である。
論文 参考訳(メタデータ) (2020-11-15T01:32:58Z) - Wireless Communications for Collaborative Federated Learning [160.82696473996566]
IoT(Internet of Things)デバイスは、収集したデータを中央のコントローラに送信することができず、機械学習モデルをトレーニングすることができる。
GoogleのセミナルFLアルゴリズムでは、すべてのデバイスを中央コントローラに直接接続する必要がある。
本稿では,コラボレーティブFL(CFL)と呼ばれる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T20:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。