論文の概要: VTarbel: Targeted Label Attack with Minimal Knowledge on Detector-enhanced Vertical Federated Learning
- arxiv url: http://arxiv.org/abs/2507.14625v1
- Date: Sat, 19 Jul 2025 13:43:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:31.975067
- Title: VTarbel: Targeted Label Attack with Minimal Knowledge on Detector-enhanced Vertical Federated Learning
- Title(参考訳): VTarbel:検出器強化垂直学習における最小限の知識によるラベル攻撃
- Authors: Juntao Tan, Anran Li, Quanchao Liu, Peng Ran, Lan Zhang,
- Abstract要約: VTarbelは、検出器強化VFL推論を回避するために設計された2段階の最小知識攻撃フレームワークである。
VTarbelを実装し、4つのモデルアーキテクチャ、7つのマルチモーダルデータセット、2つの異常検出器に対して評価を行う。
- 参考スコア(独自算出の注目度): 11.929422161436134
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Vertical federated learning (VFL) enables multiple parties with disjoint features to collaboratively train models without sharing raw data. While privacy vulnerabilities of VFL are extensively-studied, its security threats-particularly targeted label attacks-remain underexplored. In such attacks, a passive party perturbs inputs at inference to force misclassification into adversary-chosen labels. Existing methods rely on unrealistic assumptions (e.g., accessing VFL-model's outputs) and ignore anomaly detectors deployed in real-world systems. To bridge this gap, we introduce VTarbel, a two-stage, minimal-knowledge attack framework explicitly designed to evade detector-enhanced VFL inference. During the preparation stage, the attacker selects a minimal set of high-expressiveness samples (via maximum mean discrepancy), submits them through VFL protocol to collect predicted labels, and uses these pseudo-labels to train estimated detector and surrogate model on local features. In attack stage, these models guide gradient-based perturbations of remaining samples, crafting adversarial instances that induce targeted misclassifications and evade detection. We implement VTarbel and evaluate it against four model architectures, seven multimodal datasets, and two anomaly detectors. Across all settings, VTarbel outperforms four state-of-the-art baselines, evades detection, and retains effective against three representative privacy-preserving defenses. These results reveal critical security blind spots in current VFL deployments and underscore urgent need for robust, attack-aware defenses.
- Abstract(参考訳): Vertical Federated Learning (VFL) は、複数の非結合機能を持つパーティが、生データを共有することなく、協力的にモデルをトレーニングすることを可能にする。
VFLのプライバシー上の脆弱性は広く研究されているが、そのセキュリティ上の脅威は特にラベル攻撃を標的としており、未調査のままである。
このような攻撃では、受動的当事者の摂動が入力を推測し、逆長調ラベルに誤分類を強制する。
既存の手法は非現実的な仮定(例えば、VFLモデルの出力にアクセスする)に依存し、現実のシステムに展開される異常検出器を無視する。
このギャップを埋めるために、我々は2段階の最小知識攻撃フレームワークであるVTarbelを紹介した。
準備段階では、攻撃者は、(平均誤差を最大化して)最小限の高表現性サンプルを選択し、VFLプロトコルを介してそれらを送信して予測ラベルを収集し、これらの擬似ラベルを使用して、局所的な特徴に関する推定検出と代理モデルを訓練する。
攻撃段階では、これらのモデルは、残りのサンプルの勾配に基づく摂動をガイドし、ターゲットの誤分類や回避を検出する敵インスタンスを作成する。
VTarbelを実装し、4つのモデルアーキテクチャ、7つのマルチモーダルデータセット、2つの異常検出器に対して評価を行う。
あらゆる設定において、VTarbelは最先端の4つのベースラインを上回り、検出を回避し、3つの代表的なプライバシー保護防衛に対して有効である。
これらの結果は、現在のVFLデプロイメントにおける重要なセキュリティの盲点を明らかにし、ロバストでアタック対応の防御を緊急に必要としていることを明確に示している。
関連論文リスト
- HASSLE: A Self-Supervised Learning Enhanced Hijacking Attack on Vertical Federated Learning [11.282220590533566]
Vertical Federated Learning (VFL) は、受動的当事者と協力することで、組織的当事者が機械学習タスクを実行することを可能にする。
これまでの研究では、ラベル推論とバックドア攻撃の組み合わせによって、VFLのプライバシーの脆弱性を利用して、その完全性を侵害している。
本稿では、勾配方向に基づくラベル推論モジュールと、逆埋め込み生成アルゴリズムからなるハイジャック攻撃フレームワークHASSLEを提案する。
論文 参考訳(メタデータ) (2025-07-14T11:22:50Z) - LADSG: Label-Anonymized Distillation and Similar Gradient Substitution for Label Privacy in Vertical Federated Learning [7.814539117657418]
本稿では,勾配置換,ラベルの匿名化,異常検出を統合した統一防衛フレームワークを提案する。
LADSGはラベル推論攻撃の成功率を30-60%削減し、計算オーバーヘッドを最小限に抑える。
論文 参考訳(メタデータ) (2025-06-07T10:10:56Z) - Benchmarking Unified Face Attack Detection via Hierarchical Prompt Tuning [58.16354555208417]
PADとFFDはそれぞれ物理メディアベースのプレゼンテーションアタックとデジタル編集ベースのDeepFakeから顔データを保護するために提案されている。
これら2つのカテゴリの攻撃を同時に処理する統一顔攻撃検出モデルがないことは、主に2つの要因に起因する。
本稿では,異なる意味空間から複数の分類基準を適応的に探索する,視覚言語モデルに基づく階層型プロンプトチューニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-19T16:35:45Z) - R-TPT: Improving Adversarial Robustness of Vision-Language Models through Test-Time Prompt Tuning [97.49610356913874]
視覚言語モデル(VLM)のためのロバストテスト時プロンプトチューニング(R-TPT)を提案する。
R-TPTは、推論段階における敵攻撃の影響を緩和する。
プラグアンドプレイの信頼性に基づく重み付きアンサンブル戦略を導入し,防御強化を図る。
論文 参考訳(メタデータ) (2025-04-15T13:49:31Z) - AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Federated Learning for Zero-Day Attack Detection in 5G and Beyond V2X Networks [9.86830550255822]
Connected and Automated Vehicles(CAV)は、5GおよびBeyondネットワーク(5GB)上にあり、セキュリティとプライバシ攻撃のベクトルの増加に対して脆弱である。
本稿では,ネットワークトラフィックパターンのみに依存する攻撃を検知するディープ・オートエンコーダ法を利用した新しい検出機構を提案する。
連合学習を用いて、提案した侵入検知システムは、CAVのプライバシーを維持し、通信オーバーヘッドを最小限に抑えながら、大規模で多様なネットワークトラフィックで訓練することができる。
論文 参考訳(メタデータ) (2024-07-03T12:42:31Z) - URVFL: Undetectable Data Reconstruction Attack on Vertical Federated Learning [9.017014896207442]
既存の悪意のある攻撃は、基礎となるVFLトレーニングタスクを変化させ、受信した勾配と正直なトレーニングで受け取った勾配を比較することで容易に検出できる。
我々は,電流検出機構を回避する新しい攻撃戦略であるURVFLを開発する。
包括的実験により、URVFLは既存の攻撃を著しく上回り、悪意のある攻撃に対するSOTA検出方法を回避することに成功した。
論文 参考訳(メタデータ) (2024-04-30T14:19:06Z) - LESSON: Multi-Label Adversarial False Data Injection Attack for Deep Learning Locational Detection [15.491101949025651]
本稿では,Multi-labEl adverSarial falSe data injectiON attack (LESSON) と呼ばれる汎用マルチラベル逆攻撃フレームワークを提案する。
提案手法に基づく4つの典型的なLESSON攻撃と2次元の攻撃目標について検討した。
論文 参考訳(メタデータ) (2024-01-29T09:44:59Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Adversarially Robust One-class Novelty Detection [83.1570537254877]
既存のノベルティ検出器は敵の例に感受性があることが示される。
本稿では, 新規性検知器の潜伏空間を制御し, 敵に対する堅牢性を向上する防衛戦略を提案する。
論文 参考訳(メタデータ) (2021-08-25T10:41:29Z) - Investigating Robustness of Adversarial Samples Detection for Automatic
Speaker Verification [78.51092318750102]
本研究は,ASVシステムに対して,別個の検出ネットワークによる敵攻撃から防御することを提案する。
VGGライクな二分分類検出器を導入し、対向サンプルの検出に有効であることが実証された。
論文 参考訳(メタデータ) (2020-06-11T04:31:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。