論文の概要: Label Inference Attack against Split Learning under Regression Setting
- arxiv url: http://arxiv.org/abs/2301.07284v1
- Date: Wed, 18 Jan 2023 03:17:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-19 16:53:21.188472
- Title: Label Inference Attack against Split Learning under Regression Setting
- Title(参考訳): 回帰環境下での分割学習に対するラベル推論攻撃
- Authors: Shangyu Xie, Xin Yang, Yuanshun Yao, Tianyi Liu, Taiqing Wang and
Jiankai Sun
- Abstract要約: 回帰モデルのシナリオにおいて,プライベートラベルが連続数である場合の漏洩について検討する。
グラデーション情報と追加学習正規化目標を統合した,新たな学習ベースアタックを提案する。
- 参考スコア(独自算出の注目度): 24.287752556622312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a crucial building block in vertical Federated Learning (vFL), Split
Learning (SL) has demonstrated its practice in the two-party model training
collaboration, where one party holds the features of data samples and another
party holds the corresponding labels. Such method is claimed to be private
considering the shared information is only the embedding vectors and gradients
instead of private raw data and labels. However, some recent works have shown
that the private labels could be leaked by the gradients. These existing attack
only works under the classification setting where the private labels are
discrete. In this work, we step further to study the leakage in the scenario of
the regression model, where the private labels are continuous numbers (instead
of discrete labels in classification). This makes previous attacks harder to
infer the continuous labels due to the unbounded output range. To address the
limitation, we propose a novel learning-based attack that integrates gradient
information and extra learning regularization objectives in aspects of model
training properties, which can infer the labels under regression settings
effectively. The comprehensive experiments on various datasets and models have
demonstrated the effectiveness of our proposed attack. We hope our work can
pave the way for future analyses that make the vFL framework more secure.
- Abstract(参考訳): 垂直フェデレートラーニング(vFL)における重要なビルディングブロックとして、スプリットラーニング(SL)は、データサンプルの特徴を一方が保持し、それに対応するラベルを他方が保持する2つのモデルのトレーニングコラボレーションにおいて、その実践を実証した。
共有情報は、プライベートな生データやラベルではなく、埋め込みベクトルと勾配のみであることを考えると、そのような方法はプライベートであると主張する。
しかし、最近の研究によって、プライベートレーベルは勾配によって漏洩する可能性があることが示されている。
これらの既存の攻撃は、プライベートラベルが離散的な分類設定下でのみ機能する。
本研究では,プライベートラベルを(分類における離散ラベルではなく)連続数とする回帰モデルのシナリオにおいて,漏洩についてさらに検討する。
これにより、非バウンド出力範囲による連続ラベルの推測が困難になる。
この制限に対処するために、回帰設定下でラベルを効果的に推測できるモデルトレーニング特性の側面において、勾配情報と余分な学習正規化目標を統合した新しい学習ベースアタックを提案する。
各種データセットおよびモデルに関する包括的実験により,提案した攻撃の有効性を実証した。
vFLフレームワークをよりセキュアにするための今後の分析の道を開いたいと考えています。
関連論文リスト
- Training on Fake Labels: Mitigating Label Leakage in Split Learning via Secure Dimension Transformation [10.404379188947383]
ふたつのパーティ分割学習は、ラベル推論攻撃を生き残ることが証明されている。
そこで本稿では,既存のラベル推論攻撃を防御する二者分割学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T09:25:21Z) - LabObf: A Label Protection Scheme for Vertical Federated Learning Through Label Obfuscation [10.224977496821154]
Split Neural Networkは、プライバシー保護の特性から業界で人気がある。
悪意のある参加者は、アップロードされた埋め込みからラベル情報を推測するかもしれない。
本稿では,各整数値ラベルを複数の実数値ソフトラベルにランダムにマッピングする,LabObf'と呼ばれる新しいラベル難読化防衛戦略を提案する。
論文 参考訳(メタデータ) (2024-05-27T10:54:42Z) - Federated Learning with Only Positive Labels by Exploring Label Correlations [78.59613150221597]
フェデレートラーニングは、プライバシー上の制約の下で複数のユーザのデータを使用することで、モデルを協調的に学習することを目的としている。
本稿では,フェデレート学習環境下でのマルチラベル分類問題について検討する。
ラベル相関(FedALC)を探索してフェデレート平均化(Federated Averaging)と呼ばれる新しい,汎用的な手法を提案する。
論文 参考訳(メタデータ) (2024-04-24T02:22:50Z) - Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Defending Label Inference Attacks in Split Learning under Regression
Setting [20.77178463903939]
Split Learning(スプリットラーニング)は、垂直的フェデレートラーニングを実装するためのプライバシー保護手法である。
本稿では,回帰条件下でのスプリット学習におけるラベル推論攻撃に着目した。
我々はRandom Label Extension (RLE)を提案し、そこでラベルを拡張して勾配に含まれるラベル情報を難読化する。
そこで本研究では,モデルに基づく適応ラベル拡張(MLE)を提案する。
論文 参考訳(メタデータ) (2023-08-18T10:22:31Z) - Partial-Label Regression [54.74984751371617]
部分ラベル学習は、弱い教師付き学習環境であり、各トレーニング例に候補ラベルのセットをアノテートすることができる。
部分ラベル学習に関する従来の研究は、候補ラベルがすべて離散的な分類設定のみに焦点を当てていた。
本稿では,各トレーニング例に実値付き候補ラベルのセットをアノテートした部分ラベル回帰を初めて検討する。
論文 参考訳(メタデータ) (2023-06-15T09:02:24Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Does Label Differential Privacy Prevent Label Inference Attacks? [26.87328379562665]
ラベル差分プライバシー(ラベルDP)は、パブリック機能と機密性の高いプライベートラベルを持つデータセット上で、プライベートMLモデルをトレーニングするための一般的なフレームワークである。
厳格なプライバシー保証にもかかわらず、実際にはラベルDPはラベル推論攻撃(LIAs)を妨げない。
論文 参考訳(メタデータ) (2022-02-25T20:57:29Z) - Gradient Inversion Attack: Leaking Private Labels in Two-Party Split
Learning [12.335698325757491]
本稿では,ラベル所有者がラベル所有者のプライベートラベルを学習できるようにするラベル漏洩攻撃を提案する。
本攻撃では,複数クラスの画像分類問題と2値変換予測タスクについて,ほぼ完全精度でプライベートラベルデータを明らかにすることができる。
この手法は単純なデータセットに有効であるが、入力次元がより高くなるデータセットの実用性を著しく低下させる。
論文 参考訳(メタデータ) (2021-11-25T16:09:59Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z) - Self-Tuning for Data-Efficient Deep Learning [75.34320911480008]
セルフチューニングは、データ効率のよいディープラーニングを可能にする新しいアプローチである。
ラベル付きおよびラベルなしデータの探索と事前訓練されたモデルの転送を統一する。
SSLとTLの5つのタスクをシャープなマージンで上回ります。
論文 参考訳(メタデータ) (2021-02-25T14:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。