論文の概要: HASSLE: A Self-Supervised Learning Enhanced Hijacking Attack on Vertical Federated Learning
- arxiv url: http://arxiv.org/abs/2507.10162v1
- Date: Mon, 14 Jul 2025 11:22:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:24.765812
- Title: HASSLE: A Self-Supervised Learning Enhanced Hijacking Attack on Vertical Federated Learning
- Title(参考訳): HASSLE: 垂直的フェデレーション学習に対するハイジャック攻撃を強化した自己監視型学習
- Authors: Weiyang He, Chip-Hong Chang,
- Abstract要約: Vertical Federated Learning (VFL) は、受動的当事者と協力することで、組織的当事者が機械学習タスクを実行することを可能にする。
これまでの研究では、ラベル推論とバックドア攻撃の組み合わせによって、VFLのプライバシーの脆弱性を利用して、その完全性を侵害している。
本稿では、勾配方向に基づくラベル推論モジュールと、逆埋め込み生成アルゴリズムからなるハイジャック攻撃フレームワークHASSLEを提案する。
- 参考スコア(独自算出の注目度): 11.282220590533566
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vertical Federated Learning (VFL) enables an orchestrating active party to perform a machine learning task by cooperating with passive parties that provide additional task-related features for the same training data entities. While prior research has leveraged the privacy vulnerability of VFL to compromise its integrity through a combination of label inference and backdoor attacks, their effectiveness is constrained by the low label inference precision and suboptimal backdoor injection conditions. To facilitate a more rigorous security evaluation on VFL without these limitations, we propose HASSLE, a hijacking attack framework composed of a gradient-direction-based label inference module and an adversarial embedding generation algorithm enhanced by self-supervised learning. HASSLE accurately identifies private samples associated with a targeted label using only a single known instance of that label. In the two-party scenario, it demonstrates strong performance with an attack success rate (ASR) of over 99% across four datasets, including both image and tabular modalities, and achieves 85% ASR on the more complex CIFAR-100 dataset. Evaluation of HASSLE against 8 potential defenses further highlights its significant threat while providing new insights into building a trustworthy VFL system.
- Abstract(参考訳): Vertical Federated Learning (VFL)は、同じトレーニングデータエンティティにタスク関連機能を追加する受動的パーティと協力することで、組織的なアクティブパーティが機械学習タスクを実行することを可能にする。
これまでの研究では、ラベル推論とバックドア攻撃の組み合わせによって、VFLのプライバシーの脆弱性を利用して、その完全性を損なうことができたが、それらの効果は、ラベル推論の精度が低いことと、最適でないバックドア注入条件によって制限されている。
このような制限を伴わずにVFLのより厳密なセキュリティ評価を容易にするために,勾配指向型ラベル推論モジュールで構成されるハイジャック攻撃フレームワークHASSLEと,自己教師型学習によって強化された対向埋め込み生成アルゴリズムを提案する。
HASSLEはそのラベルの1つの既知のインスタンスのみを使用して、ターゲットラベルに関連するプライベートサンプルを正確に識別する。
2つのパーティのシナリオでは、画像と表のモダリティを含む4つのデータセットで99%以上のアタック成功率(ASR)で強力なパフォーマンスを示し、より複雑なCIFAR-100データセットで85%のASRを達成する。
8つの潜在的防衛に対するHASSLEの評価は、信頼性の高いVFLシステムの構築に関する新たな洞察を提供しながら、その重大な脅威をさらに強調する。
関連論文リスト
- VTarbel: Targeted Label Attack with Minimal Knowledge on Detector-enhanced Vertical Federated Learning [11.929422161436134]
VTarbelは、検出器強化VFL推論を回避するために設計された2段階の最小知識攻撃フレームワークである。
VTarbelを実装し、4つのモデルアーキテクチャ、7つのマルチモーダルデータセット、2つの異常検出器に対して評価を行う。
論文 参考訳(メタデータ) (2025-07-19T13:43:50Z) - Defending the Edge: Representative-Attention for Mitigating Backdoor Attacks in Federated Learning [7.808916974942399]
不均一エッジデバイスは、多種多様で非独立で、同一に分散された(非IID)データを生成する。
本稿では, 悪意のあるクライアントと良識を区別するための, FeRA という, 表現力に基づく防衛機構を提案する。
本評価では,エッジデバイスに典型的な非IIDデータ分散に挑戦するなど,さまざまなFLシナリオにおけるFeRAの堅牢性を示す。
論文 参考訳(メタデータ) (2025-05-15T13:44:32Z) - Benchmarking Vision Language Model Unlearning via Fictitious Facial Identity Dataset [92.99416966226724]
我々は、未学習アルゴリズムの有効性を頑健に評価するために設計された新しいVLMアンラーニングベンチマークであるFacial Identity Unlearning Benchmark (FIUBench)を紹介する。
情報ソースとその露出レベルを正確に制御する2段階評価パイプラインを適用した。
FIUBench 内の 4 つのベースライン VLM アンラーニングアルゴリズムの評価により,すべての手法がアンラーニング性能に制限されていることが明らかとなった。
論文 参考訳(メタデータ) (2024-11-05T23:26:10Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - A few-shot Label Unlearning in Vertical Federated Learning [16.800865928660954]
本稿では,垂直的フェデレート学習(VFL)におけるアンラーニングの課題について述べる。
本稿では,ラベルリークのリスクを軽減することを目的とした,VFLにおけるラベルアンラーニングに特化して設計された最初のアプローチを紹介する。
本手法では, ラベル付きデータの限られた量を活用し, 多様体ミックスアップを利用して, 不十分なデータの前方埋め込みを増強し, 拡張埋め込みに勾配を増し, モデルからラベル情報を消去する。
論文 参考訳(メタデータ) (2024-10-14T12:08:12Z) - Celtibero: Robust Layered Aggregation for Federated Learning [0.0]
Celtiberoは, 対向操作に対する強靭性を高めるため, 層状アグリゲーションを統合した新しい防御機構である。
セルティベロは、標的外および標的標的の毒殺攻撃において、最小攻撃成功率(ASR)を維持しつつ、常に高い主タスク精度(MTA)を達成することを実証した。
論文 参考訳(メタデータ) (2024-08-26T12:54:00Z) - URVFL: Undetectable Data Reconstruction Attack on Vertical Federated Learning [9.017014896207442]
既存の悪意のある攻撃は、基礎となるVFLトレーニングタスクを変化させ、受信した勾配と正直なトレーニングで受け取った勾配を比較することで容易に検出できる。
我々は,電流検出機構を回避する新しい攻撃戦略であるURVFLを開発する。
包括的実験により、URVFLは既存の攻撃を著しく上回り、悪意のある攻撃に対するSOTA検出方法を回避することに成功した。
論文 参考訳(メタデータ) (2024-04-30T14:19:06Z) - Label Inference Attacks against Node-level Vertical Federated GNNs [26.80658307067889]
ゼロ・バックグラウンドの知識戦略を用いて,VFL (Vertical Federated Learning) のラベル推論攻撃について検討した。
提案した攻撃であるBlindSageは、実験で素晴らしい結果をもたらし、ほとんどのケースで100%近い精度を実現しています。
論文 参考訳(メタデータ) (2023-08-04T17:04:58Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Effective Targeted Attacks for Adversarial Self-Supervised Learning [58.14233572578723]
ラベル情報を持たないモデルにおいて堅牢性を達成する手段として、教師なしの敵訓練(AT)が強調されている。
本稿では,敵のSSLフレームワークを効果的に生成するために,敵の攻撃を標的とした新たな正のマイニングを提案する。
提案手法は,非コントラスト型SSLフレームワークに適用した場合のロバストネスの大幅な向上と,コントラスト型SSLフレームワークによるロバストネスの向上を示す。
論文 参考訳(メタデータ) (2022-10-19T11:43:39Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。