論文の概要: VMask: Tunable Label Privacy Protection for Vertical Federated Learning via Layer Masking
- arxiv url: http://arxiv.org/abs/2507.14629v1
- Date: Sat, 19 Jul 2025 13:51:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:31.976082
- Title: VMask: Tunable Label Privacy Protection for Vertical Federated Learning via Layer Masking
- Title(参考訳): VMask: レイヤマスキングによる垂直的フェデレーション学習のための可変ラベルプライバシ保護
- Authors: Juntao Tan, Lan Zhang, Zhonghao Hu, Kai Yang, Peng Ran, Bo Li,
- Abstract要約: モデル完了(MC)攻撃は、現在最も強力な攻撃である。
新たなラベルプライバシ保護フレームワークであるVMaskを提案する。
VMaskは最高のプライバシユーティリティトレードオフを実現し、MC攻撃を回避した。
- 参考スコア(独自算出の注目度): 14.839053216561805
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Though vertical federated learning (VFL) is generally considered to be privacy-preserving, recent studies have shown that VFL system is vulnerable to label inference attacks originating from various attack surfaces. Among these attacks, the model completion (MC) attack is currently the most powerful one. Existing defense methods against it either sacrifice model accuracy or incur impractical computational overhead. In this paper, we propose VMask, a novel label privacy protection framework designed to defend against MC attack from the perspective of layer masking. Our key insight is to disrupt the strong correlation between input data and intermediate outputs by applying the secret sharing (SS) technique to mask layer parameters in the attacker's model. We devise a strategy for selecting critical layers to mask, reducing the overhead that would arise from naively applying SS to the entire model. Moreover, VMask is the first framework to offer a tunable privacy budget to defenders, allowing for flexible control over the levels of label privacy according to actual requirements. We built a VFL system, implemented VMask on it, and extensively evaluated it using five model architectures and 13 datasets with different modalities, comparing it to 12 other defense methods. The results demonstrate that VMask achieves the best privacy-utility trade-off, successfully thwarting the MC attack (reducing the label inference accuracy to a random guessing level) while preserving model performance (e.g., in Transformer-based model, the averaged drop of VFL model accuracy is only 0.09%). VMask's runtime is up to 60,846 times faster than cryptography-based methods, and it only marginally exceeds that of standard VFL by 1.8 times in a large Transformer-based model, which is generally acceptable.
- Abstract(参考訳): 垂直連合学習(VFL)は一般にプライバシ保護であると考えられているが,近年の研究では,様々な攻撃面から発生するラベル推論攻撃に対して,VFLシステムは脆弱であることが示されている。
これらの攻撃の中で、モデル完了(MC)攻撃は、現在最も強力な攻撃である。
既存の防御方法は、モデルの精度を犠牲にするか、非現実的な計算オーバーヘッドを発生させるかのいずれかである。
本稿では,レイヤマスキングの観点からMC攻撃を防御する新しいラベルプライバシ保護フレームワークであるVMaskを提案する。
我々の重要な洞察は、攻撃者のモデルにおける層パラメータを隠蔽するために秘密共有(SS)技術を適用することで、入力データと中間出力の強い相関を乱すことである。
重要なレイヤをマスクするために選択する戦略を考案し、SSをモデル全体に適用することで生じるオーバーヘッドを削減します。
さらに、VMaskはディフェンダーに調整可能なプライバシ予算を提供する最初のフレームワークであり、実際の要件に従ってラベルプライバシのレベルを柔軟に制御することができる。
我々は、VFLシステムを構築し、VMaskを実装し、5つのモデルアーキテクチャと13のデータセットを使用して広範に評価し、他の12の防御手法と比較した。
その結果、VMaskは、モデル性能(例えばTransformerベースのモデルでは、平均的なVFLモデルの精度の低下は0.09%に過ぎず)を維持しながら、MC攻撃(ラベル推測精度をランダムな推測レベルに低下させることに成功した。
VMaskのランタイムは、暗号ベースのメソッドよりも最大60,846倍高速であり、一般に受け入れられる大規模なTransformerベースのモデルでは、標準VFLよりも1.8倍しか高速ではない。
関連論文リスト
- VTarbel: Targeted Label Attack with Minimal Knowledge on Detector-enhanced Vertical Federated Learning [11.929422161436134]
VTarbelは、検出器強化VFL推論を回避するために設計された2段階の最小知識攻撃フレームワークである。
VTarbelを実装し、4つのモデルアーキテクチャ、7つのマルチモーダルデータセット、2つの異常検出器に対して評価を行う。
論文 参考訳(メタデータ) (2025-07-19T13:43:50Z) - No Query, No Access [50.18709429731724]
被害者のテキストのみを使用して動作する textbfVictim Data-based Adrial Attack (VDBA) を導入する。
被害者モデルへのアクセスを防止するため、公開されている事前トレーニングモデルとクラスタリングメソッドを備えたシャドウデータセットを作成します。
EmotionとSST5データセットの実験によると、VDBAは最先端の手法より優れており、ASRの改善は52.08%である。
論文 参考訳(メタデータ) (2025-05-12T06:19:59Z) - Cooperative Decentralized Backdoor Attacks on Vertical Federated Learning [22.076364118223324]
本稿では,垂直フェデレートラーニング(VFL)に対する新たなバックドアアタックを提案する。
ラベル推論モデルでは,距離学習による変分オートエンコーダが強化され,相手がローカルに学習できる。
コンバージェンス解析により,トレーニングモデルの定常差によって示されるVFLに対するバックドアの摂動の影響が明らかになった。
論文 参考訳(メタデータ) (2025-01-16T06:22:35Z) - Just a Simple Transformation is Enough for Data Protection in Vertical Federated Learning [83.90283731845867]
我々は、入力データ妥協を目標とする一般的なリスクである特徴再構成攻撃について検討する。
フェデレーションベースのモデルは、最先端の機能再構築攻撃に耐性があることが示される。
論文 参考訳(メタデータ) (2024-12-16T12:02:12Z) - Label Inference Attacks against Node-level Vertical Federated GNNs [26.80658307067889]
ゼロ・バックグラウンドの知識戦略を用いて,VFL (Vertical Federated Learning) のラベル推論攻撃について検討した。
提案した攻撃であるBlindSageは、実験で素晴らしい結果をもたらし、ほとんどのケースで100%近い精度を実現しています。
論文 参考訳(メタデータ) (2023-08-04T17:04:58Z) - Practical and General Backdoor Attacks against Vertical Federated
Learning [3.587415228422117]
Federated Learning(FL)は、データのプライバシを公開することなく、複数の組織間でのデータコラボレーションを促進することを目的としている。
BadVFLは、ラベル情報なしで被害者モデルにバックドアトリガーを注入するための、新しく実用的なアプローチである。
BadVFLの攻撃成功率は93%を超え、毒殺率は1%に過ぎなかった。
論文 参考訳(メタデータ) (2023-06-19T07:30:01Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - A Framework for Evaluating Privacy-Utility Trade-off in Vertical Federated Learning [18.046256152691743]
フェデレートラーニング(FL)は、ユーザのプライバシを損なうことなく、データサイロ問題に取り組むための実践的なソリューションとして登場した。
VFLは、より価値のある機能を活用してより良い機械学習モデルを構築するという、企業の要求に合致する。
VFLにおける現在の研究は、特定のVFLアルゴリズムの特定の保護または攻撃メカニズムの開発に集中している。
論文 参考訳(メタデータ) (2022-09-08T15:41:31Z) - How to Robustify Black-Box ML Models? A Zeroth-Order Optimization
Perspective [74.47093382436823]
入力クエリと出力フィードバックだけでブラックボックスモデルを堅牢化する方法?
我々は,ブラックボックスモデルに適用可能な防御操作の一般的な概念を提案し,それを復号化スムーシング(DS)のレンズを通して設計する。
我々は,ZO-AE-DSが既存のベースラインよりも精度,堅牢性,クエリの複雑さを向上できることを実証的に示す。
論文 参考訳(メタデータ) (2022-03-27T03:23:32Z) - Desirable Companion for Vertical Federated Learning: New Zeroth-Order
Gradient Based Algorithm [140.25480610981504]
VFLアルゴリズムを評価するための指標の完全なリストには、モデル適用性、プライバシ、通信、計算効率が含まれるべきである。
ブラックボックスのスケーラビリティを備えた新しいVFLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-19T13:55:47Z) - Label-Only Membership Inference Attacks [67.46072950620247]
ラベルのみのメンバシップ推論攻撃を導入する。
我々の攻撃は、摂動下でのモデルが予測するラベルの堅牢性を評価する。
差分プライバシーと(強い)L2正規化を備えたトレーニングモデルは、唯一知られている防衛戦略である。
論文 参考訳(メタデータ) (2020-07-28T15:44:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。