論文の概要: ADI: Adversarial Dominating Inputs in Vertical Federated Learning Systems
- arxiv url: http://arxiv.org/abs/2201.02775v4
- Date: Wed, 13 Nov 2024 06:57:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-14 16:08:55.714051
- Title: ADI: Adversarial Dominating Inputs in Vertical Federated Learning Systems
- Title(参考訳): ADI:垂直的フェデレーション学習システムにおける敵対的支配的入力
- Authors: Qi Pang, Yuanyuan Yuan, Shuai Wang, Wenting Zheng,
- Abstract要約: 参加者の特定の入力、すなわち、相手の意志の方向に対する共同推論を支配できる相手支配的入力(perturbs)が見つかる。
本稿では,様々なフォーマットのADIを合成し,共通VFLシステムを利用する勾配法を提案する。
我々の研究は、新たなVFL攻撃の機会を明らかにし、侵入前の未知の脅威の特定を促進し、より安全なVFLシステムを構築する。
- 参考スコア(独自算出の注目度): 19.63921342081889
- License:
- Abstract: Vertical federated learning (VFL) system has recently become prominent as a concept to process data distributed across many individual sources without the need to centralize it. Multiple participants collaboratively train models based on their local data in a privacy-aware manner. To date, VFL has become a de facto solution to securely learn a model among organizations, allowing knowledge to be shared without compromising privacy of any individuals. Despite the prosperous development of VFL systems, we find that certain inputs of a participant, named adversarial dominating inputs (ADIs), can dominate the joint inference towards the direction of the adversary's will and force other (victim) participants to make negligible contributions, losing rewards that are usually offered regarding the importance of their contributions in federated learning scenarios. We conduct a systematic study on ADIs by first proving their existence in typical VFL systems. We then propose gradient-based methods to synthesize ADIs of various formats and exploit common VFL systems. We further launch greybox fuzz testing, guided by the saliency score of ``victim'' participants, to perturb adversary-controlled inputs and systematically explore the VFL attack surface in a privacy-preserving manner. We conduct an in-depth study on the influence of critical parameters and settings in synthesizing ADIs. Our study reveals new VFL attack opportunities, promoting the identification of unknown threats before breaches and building more secure VFL systems.
- Abstract(参考訳): VFL(Vertical Federated Learning)システムは近年,データ集中化を必要とせず,複数のソースに分散したデータを処理する概念として注目されている。
複数の参加者は、プライバシを認識した方法で、ローカルデータに基づいてモデルを協調的にトレーニングする。
これまでVFLは、組織間のモデルを安全に学習し、個人のプライバシーを損なうことなく知識を共有するためのデファクトソリューションになっています。
VFLシステムの発達にもかかわらず、ある参加者の特定の入力(ADI)が、相手の意志の方向に対する共同推論を支配し、他の参加者(被害者)に無視できる貢献を強制し、連合学習シナリオにおける貢献の重要性について通常提示される報酬を失うことが判明した。
我々は、まず、典型的なVFLシステムにおけるその存在を証明し、ADIに関する体系的研究を行う。
次に、様々なフォーマットのADIを合成し、一般的なVFLシステムを利用する勾配に基づく手法を提案する。
さらに, <victim' 参加者の正当性スコアに導かれるグレイボックスファジテストを開始し, 敵が制御する入力を摂動させ, プライバシー保護の方法でVFL攻撃面を体系的に探索する。
我々は、ADIの合成における臨界パラメータと設定の影響について、詳細な研究を行う。
我々の研究は、新たなVFL攻撃の機会を明らかにし、侵入前の未知の脅威の特定を促進し、より安全なVFLシステムを構築する。
関連論文リスト
- Vertical Federated Learning for Effectiveness, Security, Applicability: A Survey [67.48187503803847]
Vertical Federated Learning(VFL)は、プライバシ保護のための分散学習パラダイムである。
近年の研究では、VFLの様々な課題に対処する有望な成果が示されている。
この調査は、最近の展開を体系的に概観する。
論文 参考訳(メタデータ) (2024-05-25T16:05:06Z) - A Survey of Privacy Threats and Defense in Vertical Federated Learning:
From Model Life Cycle Perspective [31.19776505014808]
我々は、垂直的フェデレーションラーニングにおけるプライバシー攻撃と防衛の最先端に関する、最初の総合的な調査を行う。
我々は,攻撃と防御の両面において,その特徴に基づいて,オープンな課題と今後の研究方向性について議論する。
論文 参考訳(メタデータ) (2024-02-06T04:22:44Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Universal Adversarial Backdoor Attacks to Fool Vertical Federated
Learning in Cloud-Edge Collaboration [13.067285306737675]
本稿では,二元分類タスクの文脈における垂直連合学習(VFL)の脆弱性について検討する。
VFLの予測に悪影響を及ぼすため,UAB攻撃を導入した。
我々の手法は既存の最先端の手法を超越し、最大100%のバックドアタスク性能を実現している。
論文 参考訳(メタデータ) (2023-04-22T15:31:15Z) - BadVFL: Backdoor Attacks in Vertical Federated Learning [22.71527711053385]
フェデレートラーニング(FL)は、複数のパーティがデータを共有することなく、機械学習モデルを協調的にトレーニングすることを可能にする。
本稿では,VFLのロバスト性,特にバックドアアタックに焦点をあてる。
VFLでは,ラベル推論とバックドアフェーズという2つのフェーズからなる第1種クリーンラベルバックドアアタックが提案されている。
論文 参考訳(メタデータ) (2023-04-18T09:22:32Z) - A Survey of Trustworthy Federated Learning with Perspectives on
Security, Robustness, and Privacy [47.89042524852868]
Federated Learning (FL) は,さまざまな現実のシナリオに対して,有望なソリューションとして注目されている。
しかし、データの分離とプライバシーに関する課題は、FLシステムの信頼性を脅かす。
論文 参考訳(メタデータ) (2023-02-21T12:52:12Z) - Vertical Federated Learning: Concepts, Advances and Challenges [18.38260017835129]
VFL(Vertical Federated Learning)の概念とアルゴリズムについてレビューする。
VFL設定とプライバシ保護プロトコルを網羅的に分類する。
本稿では,コミュニケーション,計算,プライバシ,有効性,公平性といった制約を考慮した統合フレームワーク VFLow を提案する。
論文 参考訳(メタデータ) (2022-11-23T10:00:06Z) - Vertical Federated Learning: Challenges, Methodologies and Experiments [34.4865409422585]
垂直学習(VFL)は、異なるクライアントからサブモデルを受け入れることで、ハイパーMLモデルを構築することができる。
本稿では,VFLにおける課題を効果的に解決し,実生活データセット上で実験を行う。
論文 参考訳(メタデータ) (2022-02-09T06:56:41Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。