論文の概要: Making Split Learning Resilient to Label Leakage by Potential Energy
Loss
- arxiv url: http://arxiv.org/abs/2210.09617v1
- Date: Tue, 18 Oct 2022 06:21:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 14:03:48.443319
- Title: Making Split Learning Resilient to Label Leakage by Potential Energy
Loss
- Title(参考訳): エネルギー損失によるラベルリークに対するスプリット学習のレジリエント化
- Authors: Fei Zheng, Chaochao Chen, Binhui Yao, Xiaolin Zheng
- Abstract要約: トレーニングされた分割モデルによって引き起こされるプライバシー漏洩問題、すなわち、攻撃者はいくつかのラベル付きサンプルを使用してボトムモデルを微調整することができる。
このようなプライバシリークを防止するため,ボトムモデルの出力をより複雑にするための潜在的なエネルギー損失を提案する。
実験結果から,本手法は攻撃者の微調整精度を著しく低下させ,スプリットモデルのラベルリークに対する耐性を高めた。
- 参考スコア(独自算出の注目度): 20.021666719425163
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As a practical privacy-preserving learning method, split learning has drawn
much attention in academia and industry. However, its security is constantly
being questioned since the intermediate results are shared during training and
inference. In this paper, we focus on the privacy leakage problem caused by the
trained split model, i.e., the attacker can use a few labeled samples to
fine-tune the bottom model, and gets quite good performance. To prevent such
kind of privacy leakage, we propose the potential energy loss to make the
output of the bottom model become a more `complicated' distribution, by pushing
outputs of the same class towards the decision boundary. Therefore, the
adversary suffers a large generalization error when fine-tuning the bottom
model with only a few leaked labeled samples. Experiment results show that our
method significantly lowers the attacker's fine-tuning accuracy, making the
split model more resilient to label leakage.
- Abstract(参考訳): 実践的なプライバシー保護学習手法として、スプリットラーニングはアカデミックや業界で注目を集めている。
しかし、中間結果がトレーニングや推論中に共有されるため、セキュリティは常に疑問視されている。
本稿では、トレーニングされた分割モデルによって生じるプライバシー漏洩問題、すなわち、攻撃者がラベル付きサンプルを使ってボトムモデルを微調整し、非常に優れたパフォーマンスを得ることができることに焦点を当てる。
このようなプライバシリークを防止するため,同じクラスの出力を決定境界に向けてプッシュすることで,ボトムモデルの出力をより「複雑」な分布にするための潜在的なエネルギー損失を提案する。
そのため, ボトムモデルにラベル付きサンプルがいくつか漏れただけで微調整を行う場合, 敵は大きな一般化誤差を被る。
実験結果から,本手法は攻撃者の微調整精度を著しく低下させ,スプリットモデルのラベルリークに対する耐性を高めた。
関連論文リスト
- Defending Label Inference Attacks in Split Learning under Regression
Setting [20.77178463903939]
Split Learning(スプリットラーニング)は、垂直的フェデレートラーニングを実装するためのプライバシー保護手法である。
本稿では,回帰条件下でのスプリット学習におけるラベル推論攻撃に着目した。
我々はRandom Label Extension (RLE)を提案し、そこでラベルを拡張して勾配に含まれるラベル情報を難読化する。
そこで本研究では,モデルに基づく適応ラベル拡張(MLE)を提案する。
論文 参考訳(メタデータ) (2023-08-18T10:22:31Z) - Students Parrot Their Teachers: Membership Inference on Model
Distillation [54.392069096234074]
知識蒸留によるプライバシを,教師と学生のトレーニングセットの両方で研究する。
私たちの攻撃は、生徒セットと教師セットが類似している場合、または攻撃者が教師セットを毒できる場合、最強です。
論文 参考訳(メタデータ) (2023-03-06T19:16:23Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Where Did You Learn That From? Surprising Effectiveness of Membership
Inference Attacks Against Temporally Correlated Data in Deep Reinforcement
Learning [114.9857000195174]
深い強化学習を産業的に広く採用する上での大きな課題は、プライバシー侵害の潜在的な脆弱性である。
本稿では, 深層強化学習アルゴリズムの脆弱性を検証し, メンバーシップ推論攻撃に適応する対戦型攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-08T23:44:57Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z) - Label Leakage and Protection in Two-party Split Learning [31.55902526103684]
本稿では,不均衡な二項分類設定でその答えを検討する。
まず,当事者間のコミュニケーション勾配のノルムを用いた単純な手法であるノームアタックが,参加者の接地ラベルをほとんど明らかにできることを示す。
そこで我々は,ラベル検出の最悪のエラーを直接最大化する原理的手法を考案した。
論文 参考訳(メタデータ) (2021-02-17T00:01:49Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Unleashing the Tiger: Inference Attacks on Split Learning [2.492607582091531]
クライアントのプライベートトレーニングセットの再構築を目的とした汎用的な攻撃戦略を導入する。
悪意のあるサーバは、分散モデルの学習プロセスを積極的にハイジャックすることができる。
我々は、最近提案された防御手法を克服できることを実証する。
論文 参考訳(メタデータ) (2020-12-04T15:41:00Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。