論文の概要: Attacking Vertical Collaborative Learning System Using Adversarial
Dominating Inputs
- arxiv url: http://arxiv.org/abs/2201.02775v1
- Date: Sat, 8 Jan 2022 06:18:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-12 08:36:42.783353
- Title: Attacking Vertical Collaborative Learning System Using Adversarial
Dominating Inputs
- Title(参考訳): 逆数支配入力を用いた垂直協調学習システムへの攻撃
- Authors: Qi Pang, Yuanyuan Yuan, Shuai Wang
- Abstract要約: 参加者の特定の入力(ADI)が、相手の意志の方向に対する関節推論を支配できることがわかった。
本稿では,様々なフォーマットのADIを合成し,共通VFLシステムを利用する勾配法を提案する。
我々の研究は、新たなVFL攻撃の機会を明らかにし、侵入前の未知の脅威の特定を促進し、より安全なVFLシステムを構築する。
- 参考スコア(独自算出の注目度): 10.53962813929928
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vertical collaborative learning system also known as vertical federated
learning (VFL) system has recently become prominent as a concept to process
data distributed across many individual sources without the need to centralize
it. Multiple participants collaboratively train models based on their local
data in a privacy-preserving manner. To date, VFL has become a de facto
solution to securely learn a model among organizations, allowing knowledge to
be shared without compromising privacy of any individual organizations.
Despite the prosperous development of VFL systems, we find that certain
inputs of a participant, named adversarial dominating inputs (ADIs), can
dominate the joint inference towards the direction of the adversary's will and
force other (victim) participants to make negligible contributions, losing
rewards that are usually offered regarding the importance of their
contributions in collaborative learning scenarios.
We conduct a systematic study on ADIs by first proving their existence in
typical VFL systems. We then propose gradient-based methods to synthesize ADIs
of various formats and exploit common VFL systems. We further launch greybox
fuzz testing, guided by the resiliency score of "victim" participants, to
perturb adversary-controlled inputs and systematically explore the VFL attack
surface in a privacy-preserving manner. We conduct an in-depth study on the
influence of critical parameters and settings in synthesizing ADIs. Our study
reveals new VFL attack opportunities, promoting the identification of unknown
threats before breaches and building more secure VFL systems.
- Abstract(参考訳): 近年,垂直統合学習(VFL)システムと呼ばれる垂直協調学習システムは,中央集権化を必要とせず,複数のソースに分散したデータを処理する概念として注目されている。
複数の参加者が、プライバシ保護の方法で、ローカルデータに基づいたモデルを共同でトレーニングします。
これまでVFLは、組織間のモデルを安全に学習し、個々の組織のプライバシーを損なうことなく知識を共有するための事実上のソリューションになっています。
vflシステムの繁栄にもかかわらず、adversarial dominating inputs(adis)と呼ばれる参加者の特定の入力が、敵の意志の方向に向かって共同推論を支配でき、他の(決定的な)参加者に無視できる貢献を強制し、協調学習シナリオにおける貢献の重要性に関する報酬を失うことを発見した。
まず,典型的なvflシステムにおけるadisの存在を実証し,adisの系統的研究を行う。
次に、様々なフォーマットのADIを合成し、一般的なVFLシステムを利用する勾配に基づく手法を提案する。
さらにgreybox fuzz testをローンチし、"勝利"参加者のレジリエンススコアに導かれ、敵が制御する入力を乱し、プライバシ保護の方法でvfl攻撃面を体系的に探索する。
我々は、ADIの合成における臨界パラメータと設定の影響について詳細な研究を行う。
本研究では,新たなvfl攻撃の機会を明らかにし,侵入前に未知の脅威を特定し,よりセキュアなvflシステムを構築する。
関連論文リスト
- Vertical Federated Learning for Effectiveness, Security, Applicability: A Survey [67.48187503803847]
Vertical Federated Learning(VFL)は、プライバシ保護のための分散学習パラダイムである。
近年の研究では、VFLの様々な課題に対処する有望な成果が示されている。
この調査は、最近の展開を体系的に概観する。
論文 参考訳(メタデータ) (2024-05-25T16:05:06Z) - A Survey of Privacy Threats and Defense in Vertical Federated Learning:
From Model Life Cycle Perspective [31.19776505014808]
我々は、垂直的フェデレーションラーニングにおけるプライバシー攻撃と防衛の最先端に関する、最初の総合的な調査を行う。
我々は,攻撃と防御の両面において,その特徴に基づいて,オープンな課題と今後の研究方向性について議論する。
論文 参考訳(メタデータ) (2024-02-06T04:22:44Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Universal Adversarial Backdoor Attacks to Fool Vertical Federated
Learning in Cloud-Edge Collaboration [13.067285306737675]
本稿では,二元分類タスクの文脈における垂直連合学習(VFL)の脆弱性について検討する。
VFLの予測に悪影響を及ぼすため,UAB攻撃を導入した。
我々の手法は既存の最先端の手法を超越し、最大100%のバックドアタスク性能を実現している。
論文 参考訳(メタデータ) (2023-04-22T15:31:15Z) - BadVFL: Backdoor Attacks in Vertical Federated Learning [22.71527711053385]
フェデレートラーニング(FL)は、複数のパーティがデータを共有することなく、機械学習モデルを協調的にトレーニングすることを可能にする。
本稿では,VFLのロバスト性,特にバックドアアタックに焦点をあてる。
VFLでは,ラベル推論とバックドアフェーズという2つのフェーズからなる第1種クリーンラベルバックドアアタックが提案されている。
論文 参考訳(メタデータ) (2023-04-18T09:22:32Z) - A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy [47.89042524852868]
Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
論文 参考訳(メタデータ) (2023-02-21T12:52:12Z) - Vertical Federated Learning: Concepts, Advances and Challenges [18.38260017835129]
VFL(Vertical Federated Learning)の概念とアルゴリズムについてレビューする。
VFL設定とプライバシ保護プロトコルを網羅的に分類する。
本稿では,コミュニケーション,計算,プライバシ,有効性,公平性といった制約を考慮した統合フレームワーク VFLow を提案する。
論文 参考訳(メタデータ) (2022-11-23T10:00:06Z) - Vertical Federated Learning: Challenges, Methodologies and Experiments [34.4865409422585]
垂直学習(VFL)は、異なるクライアントからサブモデルを受け入れることで、ハイパーMLモデルを構築することができる。
本稿では,VFLにおける課題を効果的に解決し,実生活データセット上で実験を行う。
論文 参考訳(メタデータ) (2022-02-09T06:56:41Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。