論文の概要: Similarity-based Label Inference Attack against Training and Inference of Split Learning
- arxiv url: http://arxiv.org/abs/2203.05222v2
- Date: Fri, 22 Mar 2024 09:38:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 00:17:07.123182
- Title: Similarity-based Label Inference Attack against Training and Inference of Split Learning
- Title(参考訳): 類似性に基づくラベル推論による訓練と分割学習の推論
- Authors: Junlin Liu, Xinchen Lyu, Qimei Cui, Xiaofeng Tao,
- Abstract要約: 分割学習は、プライバシを保存する分散学習のための有望なパラダイムである。
本稿では、スマッシュデータを含む交換された中間結果が、既にプライベートラベルを明らかにすることができることを示す。
トレーニングと推論の両段階において,プライベートラベルを効率よく回収する3つのラベル推論攻撃を提案する。
- 参考スコア(独自算出の注目度): 13.104547182351332
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Split learning is a promising paradigm for privacy-preserving distributed learning. The learning model can be cut into multiple portions to be collaboratively trained at the participants by exchanging only the intermediate results at the cut layer. Understanding the security performance of split learning is critical for many privacy-sensitive applications. This paper shows that the exchanged intermediate results, including the smashed data (i.e., extracted features from the raw data) and gradients during training and inference of split learning, can already reveal the private labels. We mathematically analyze the potential label leakages and propose the cosine and Euclidean similarity measurements for gradients and smashed data, respectively. Then, the two similarity measurements are shown to be unified in Euclidean space. Based on the similarity metric, we design three label inference attacks to efficiently recover the private labels during both the training and inference phases. Experimental results validate that the proposed approaches can achieve close to 100% accuracy of label attacks. The proposed attack can still achieve accurate predictions against various state-of-the-art defense mechanisms, including DP-SGD, label differential privacy, gradient compression, and Marvell.
- Abstract(参考訳): 分割学習は、プライバシを保存する分散学習のための有望なパラダイムである。
学習モデルは、カット層における中間結果のみを交換することにより、複数の部分に分割して参加者に協調的に訓練することができる。
分割学習のセキュリティパフォーマンスを理解することは、多くのプライバシーに敏感なアプリケーションにとって重要である。
本稿では,スマッシュデータ(生データから抽出した特徴)やスプリットラーニングのトレーニングおよび推論における勾配を含む交換中間結果が,すでにプライベートラベルを明らかにすることができることを示す。
我々は,潜在的なラベルリークを数学的に解析し,勾配とスマッシュデータに対するコサインとユークリッドの類似度の測定法を提案する。
すると、2つの類似度の測定はユークリッド空間で統一されることが示される。
類似度測定値に基づいて,学習段階と推論段階の双方において,プライベートラベルを効率よく回収する3つのラベル推論攻撃を設計する。
実験により,提案手法がラベル攻撃の精度を100%近い精度で達成できることが確認された。
提案した攻撃は、DP-SGD、ラベルの差分プライバシー、勾配圧縮、マーベルなど、最先端の防御メカニズムに対して正確な予測を行うことができる。
関連論文リスト
- Training on Fake Labels: Mitigating Label Leakage in Split Learning via Secure Dimension Transformation [10.404379188947383]
ふたつのパーティ分割学習は、ラベル推論攻撃を生き残ることが証明されている。
そこで本稿では,既存のラベル推論攻撃を防御する二者分割学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T09:25:21Z) - LabObf: A Label Protection Scheme for Vertical Federated Learning Through Label Obfuscation [10.224977496821154]
Split Neural Networkは、プライバシー保護の特性から業界で人気がある。
悪意のある参加者は、アップロードされた埋め込みからラベル情報を推測するかもしれない。
本稿では,各整数値ラベルを複数の実数値ソフトラベルにランダムにマッピングする,LabObf'と呼ばれる新しいラベル難読化防衛戦略を提案する。
論文 参考訳(メタデータ) (2024-05-27T10:54:42Z) - JointMatch: A Unified Approach for Diverse and Collaborative
Pseudo-Labeling to Semi-Supervised Text Classification [65.268245109828]
半教師付きテキスト分類(SSTC)は、ラベルのないデータを活用する能力によって注目を集めている。
擬似ラベルに基づく既存のアプローチは、擬似ラベルバイアスと誤り蓄積の問題に悩まされる。
我々は、最近の半教師付き学習からアイデアを統一することでこれらの課題に対処する、SSTCの総合的なアプローチであるJointMatchを提案する。
論文 参考訳(メタデータ) (2023-10-23T05:43:35Z) - Defending Label Inference Attacks in Split Learning under Regression
Setting [20.77178463903939]
Split Learning(スプリットラーニング)は、垂直的フェデレートラーニングを実装するためのプライバシー保護手法である。
本稿では,回帰条件下でのスプリット学習におけるラベル推論攻撃に着目した。
我々はRandom Label Extension (RLE)を提案し、そこでラベルを拡張して勾配に含まれるラベル情報を難読化する。
そこで本研究では,モデルに基づく適応ラベル拡張(MLE)を提案する。
論文 参考訳(メタデータ) (2023-08-18T10:22:31Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Label Inference Attack against Split Learning under Regression Setting [24.287752556622312]
回帰モデルのシナリオにおいて,プライベートラベルが連続数である場合の漏洩について検討する。
グラデーション情報と追加学習正規化目標を統合した,新たな学習ベースアタックを提案する。
論文 参考訳(メタデータ) (2023-01-18T03:17:24Z) - Dense FixMatch: a simple semi-supervised learning method for pixel-wise
prediction tasks [68.36996813591425]
Dense FixMatchは,高密度かつ構造化された予測タスクのオンライン半教師付き学習のための簡易な手法である。
我々は、擬似ラベルにマッチング操作を追加することにより、画像分類を超えた半教師付き学習問題にFixMatchの適用を可能にする。
Dense FixMatchは、ラベル付きデータのみを使用して教師付き学習と比較すると、結果を著しく改善し、ラベル付きサンプルの1/4でそのパフォーマンスに近づいた。
論文 参考訳(メタデータ) (2022-10-18T15:02:51Z) - Resolving label uncertainty with implicit posterior models [71.62113762278963]
本稿では,データサンプルのコレクション間でラベルを共同で推論する手法を提案する。
異なる予測子を後部とする生成モデルの存在を暗黙的に仮定することにより、弱い信念の下での学習を可能にする訓練目標を導出する。
論文 参考訳(メタデータ) (2022-02-28T18:09:44Z) - Gradient Inversion Attack: Leaking Private Labels in Two-Party Split
Learning [12.335698325757491]
本稿では,ラベル所有者がラベル所有者のプライベートラベルを学習できるようにするラベル漏洩攻撃を提案する。
本攻撃では,複数クラスの画像分類問題と2値変換予測タスクについて,ほぼ完全精度でプライベートラベルデータを明らかにすることができる。
この手法は単純なデータセットに有効であるが、入力次元がより高くなるデータセットの実用性を著しく低下させる。
論文 参考訳(メタデータ) (2021-11-25T16:09:59Z) - OpenCoS: Contrastive Semi-supervised Learning for Handling Open-set
Unlabeled Data [65.19205979542305]
ラベル付けされていないデータには、実際にはクラス外のサンプルが含まれる。
OpenCoSは、このリアルな半教師付き学習シナリオを扱う方法である。
論文 参考訳(メタデータ) (2021-06-29T06:10:05Z) - DivideMix: Learning with Noisy Labels as Semi-supervised Learning [111.03364864022261]
ノイズラベルを学習するためのフレームワークであるDivideMixを提案する。
複数のベンチマークデータセットの実験は、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-02-18T06:20:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。