論文の概要: LADSG: Label-Anonymized Distillation and Similar Gradient Substitution for Label Privacy in Vertical Federated Learning
- arxiv url: http://arxiv.org/abs/2506.06742v1
- Date: Sat, 07 Jun 2025 10:10:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 21:10:47.050449
- Title: LADSG: Label-Anonymized Distillation and Similar Gradient Substitution for Label Privacy in Vertical Federated Learning
- Title(参考訳): LADSG: 縦型フェデレーション学習におけるラベルの無名蒸留とラベルプライバシの類似したグラディエント置換
- Authors: Zeyu Yan, Yifei Yao, Xuanbing Wen, Juli Zhang, Kai Fan,
- Abstract要約: 本稿では,勾配置換,ラベルの匿名化,異常検出を統合した統一防衛フレームワークを提案する。
LADSGはラベル推論攻撃の成功率を30-60%削減し、計算オーバーヘッドを最小限に抑える。
- 参考スコア(独自算出の注目度): 7.814539117657418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vertical federated learning (VFL) has become a key paradigm for collaborative machine learning, enabling multiple parties to train models over distributed feature spaces while preserving data privacy. Despite security protocols that defend against external attacks - such as gradient masking and encryption, which prevent unauthorized access to sensitive data - recent label inference attacks from within the system have emerged. These attacks exploit gradients and semantic embeddings to reconstruct private labels, bypassing traditional defenses. For example, the passive label inference attack can reconstruct tens of thousands of participants' private data using just 40 auxiliary labels, posing a significant security threat. Existing defenses address single leakage pathways, such as gradient leakage or label exposure. As attack strategies evolve, their limitations become clear, especially against hybrid attacks that combine multiple vectors. To address this, we propose Label-Anonymized Defense with Substitution Gradient (LADSG), a unified defense framework that integrates gradient substitution, label anonymization, and anomaly detection. LADSG mitigates both gradient and label leakage while maintaining the scalability and efficiency of VFL. Experiments on six real-world datasets show that LADSG reduces label inference attack success rates by 30-60%, with minimal computational overhead, underscoring the importance of lightweight defenses in securing VFL.
- Abstract(参考訳): 垂直連合学習(VFL)は、コラボレーティブ機械学習の重要なパラダイムとなり、複数のパーティがデータのプライバシを保ちながら、分散特徴空間上でモデルをトレーニングできるようになった。
機密データへの不正アクセスを防ぐための、グラデーションマスキングや暗号化など、外部からの攻撃を防御するセキュリティプロトコルがあるにもかかわらず、システム内の最近のラベル推論攻撃が出現している。
これらの攻撃は、従来の防衛をバイパスしてプライベートラベルを再構築するために、勾配とセマンティック埋め込みを利用する。
例えば、パッシブラベル推論攻撃は、わずか40個の補助ラベルを使用して、何万人もの参加者のプライベートデータを再構築することができ、重大なセキュリティ上の脅威を生じさせる。
既存の防御は、勾配の漏れやラベルの露出のような単一の漏れ経路に対処する。
攻撃戦略が進化するにつれて、その制限は明確になる。
そこで我々は, 勾配置換, ラベル匿名化, 異常検出を統合した統一防衛フレームワーク, LADSGを提案する。
LADSGは、VFLのスケーラビリティと効率を保ちながら、勾配とラベルの漏れを緩和する。
6つの実世界のデータセットでの実験では、LADSGはラベル推論攻撃の成功率を30~60%削減し、計算オーバーヘッドを最小限に抑え、VFLの確保における軽量防衛の重要性を強調している。
関連論文リスト
- VTarbel: Targeted Label Attack with Minimal Knowledge on Detector-enhanced Vertical Federated Learning [11.929422161436134]
VTarbelは、検出器強化VFL推論を回避するために設計された2段階の最小知識攻撃フレームワークである。
VTarbelを実装し、4つのモデルアーキテクチャ、7つのマルチモーダルデータセット、2つの異常検出器に対して評価を行う。
論文 参考訳(メタデータ) (2025-07-19T13:43:50Z) - Robust Anti-Backdoor Instruction Tuning in LVLMs [53.766434746801366]
大規模視覚言語モデル(LVLM)のための軽量で認証に依存しない防御フレームワークについて紹介する。
私たちのフレームワークは、命令チューニングの下で、アダプタモジュールとテキスト埋め込み層のみを微調整します。
Flickr30kとMSCOCOに対する7つの攻撃に対する実験は、我々の攻撃の成功率をほぼゼロに低下させることを示した。
論文 参考訳(メタデータ) (2025-06-04T01:23:35Z) - Training on Fake Labels: Mitigating Label Leakage in Split Learning via Secure Dimension Transformation [10.404379188947383]
ふたつのパーティ分割学習は、ラベル推論攻撃を生き残ることが証明されている。
そこで本稿では,既存のラベル推論攻撃を防御する二者分割学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T09:25:21Z) - KDk: A Defense Mechanism Against Label Inference Attacks in Vertical Federated Learning [2.765106384328772]
Vertical Federated Learning (VFL) のシナリオでは、サンプルのラベルは、ラベル所有者である集約サーバを除くすべてのパーティからプライベートに保持される。
最近の研究で、サーバからボトムモデルに返される勾配情報を利用することで、敵がプライベートラベルを推測できることが判明した。
我々は,KDkという,知識蒸留とk匿名を組み合わせて防御機構を提供する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-18T17:51:02Z) - Protecting Model Adaptation from Trojans in the Unlabeled Data [120.42853706967188]
本稿では,よく設計された毒物標的データによるモデル適応に対するトロイの木馬攻撃の可能性について検討する。
本稿では,既存の適応アルゴリズムとシームレスに統合可能なDiffAdaptというプラグイン・アンド・プレイ手法を提案する。
論文 参考訳(メタデータ) (2024-01-11T16:42:10Z) - Exploiting Low-confidence Pseudo-labels for Source-free Object Detection [54.98300313452037]
Source-free Object Detection (SFOD) は、ラベル付きソースデータにアクセスすることなく、未ラベルのターゲットドメインにソーストレーニングされた検出器を適応することを目的としている。
現在のSFOD法は適応相におけるしきい値に基づく擬似ラベル手法を用いる。
疑似ラベルを最大限に活用するために,高信頼度と低信頼度しきい値を導入する手法を提案する。
論文 参考訳(メタデータ) (2023-10-19T12:59:55Z) - Defending Label Inference Attacks in Split Learning under Regression
Setting [20.77178463903939]
Split Learning(スプリットラーニング)は、垂直的フェデレートラーニングを実装するためのプライバシー保護手法である。
本稿では,回帰条件下でのスプリット学習におけるラベル推論攻撃に着目した。
我々はRandom Label Extension (RLE)を提案し、そこでラベルを拡張して勾配に含まれるラベル情報を難読化する。
そこで本研究では,モデルに基づく適応ラベル拡張(MLE)を提案する。
論文 参考訳(メタデータ) (2023-08-18T10:22:31Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Label Inference Attack against Split Learning under Regression Setting [24.287752556622312]
回帰モデルのシナリオにおいて,プライベートラベルが連続数である場合の漏洩について検討する。
グラデーション情報と追加学習正規化目標を統合した,新たな学習ベースアタックを提案する。
論文 参考訳(メタデータ) (2023-01-18T03:17:24Z) - Unlearnable Clusters: Towards Label-agnostic Unlearnable Examples [128.25509832644025]
インターネット上の視覚的プライバシー漏洩に対して、未学習の例(UE)を開発することへの関心が高まっている。
UEは、目に見えないが学習不可能なノイズを付加したトレーニングサンプルであり、機械学習モデルの不正なトレーニングを防ぐことができる。
本稿では,無学習クラスタ (UC) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-12-31T04:26:25Z) - Exploiting Completeness and Uncertainty of Pseudo Labels for Weakly
Supervised Video Anomaly Detection [149.23913018423022]
弱教師付きビデオ異常検出は、ビデオレベルのラベルのみを用いて、ビデオ内の異常事象を特定することを目的としている。
2段階の自己学習法は擬似ラベルの自己生成によって著しく改善されている。
本稿では,自己学習のための完全性と不確実性を利用した強化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-08T05:53:53Z) - Semi-supervised Object Detection via Virtual Category Learning [68.26956850996976]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
具体的には、各混乱したサンプルに仮想圏(VC)が割り当てられる。
トレーニングサンプルと仮想カテゴリの間の埋め込み距離を指定することに起因する。
論文 参考訳(メタデータ) (2022-07-07T16:59:53Z) - Label Leakage and Protection from Forward Embedding in Vertical
Federated Learning [19.96017956261838]
共有中間埋め込みからプライベートラベルを盗むことができる実用的なラベル推論手法を提案する。
ラベル攻撃の有効性は、中間埋め込みと対応するプライベートラベルとの相関から区別できない。
論文 参考訳(メタデータ) (2022-03-02T22:54:54Z) - Defending Label Inference and Backdoor Attacks in Vertical Federated
Learning [11.319694528089773]
共同学習では、好奇心が強いパリティは正直かもしれないが、推論攻撃を通じて他人の個人データを推測しようとしている。
本稿では,サンプルごとの勾配から,プライベートラベルを再構築可能であることを示す。
本稿では、オートエンコーダとエントロピー正規化に基づく、混乱型オートエンコーダ(CoAE)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-10T09:32:09Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Self-Tuning for Data-Efficient Deep Learning [75.34320911480008]
セルフチューニングは、データ効率のよいディープラーニングを可能にする新しいアプローチである。
ラベル付きおよびラベルなしデータの探索と事前訓練されたモデルの転送を統一する。
SSLとTLの5つのタスクをシャープなマージンで上回ります。
論文 参考訳(メタデータ) (2021-02-25T14:56:19Z) - Dual-Refinement: Joint Label and Feature Refinement for Unsupervised
Domain Adaptive Person Re-Identification [51.98150752331922]
Unsupervised Domain Adaptive (UDA) Person Re-identification (再ID) は、ターゲットドメインデータのラベルが欠落しているため、難しい作業です。
オフラインクラスタリングフェーズにおける擬似ラベルとオンライントレーニングフェーズにおける特徴を共同で改良する,デュアルリファインメントと呼ばれる新しいアプローチを提案する。
本手法は最先端手法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2020-12-26T07:35:35Z) - Label-Only Membership Inference Attacks [67.46072950620247]
ラベルのみのメンバシップ推論攻撃を導入する。
我々の攻撃は、摂動下でのモデルが予測するラベルの堅牢性を評価する。
差分プライバシーと(強い)L2正規化を備えたトレーニングモデルは、唯一知られている防衛戦略である。
論文 参考訳(メタデータ) (2020-07-28T15:44:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。