論文の概要: Does Label Differential Privacy Prevent Label Inference Attacks?
- arxiv url: http://arxiv.org/abs/2202.12968v2
- Date: Sat, 3 Jun 2023 21:27:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 05:41:20.096180
- Title: Does Label Differential Privacy Prevent Label Inference Attacks?
- Title(参考訳): ラベル差分プライバシーはラベル推論攻撃を防ぐか?
- Authors: Ruihan Wu, Jin Peng Zhou, Kilian Q. Weinberger and Chuan Guo
- Abstract要約: ラベル差分プライバシー(ラベルDP)は、パブリック機能と機密性の高いプライベートラベルを持つデータセット上で、プライベートMLモデルをトレーニングするための一般的なフレームワークである。
厳格なプライバシー保証にもかかわらず、実際にはラベルDPはラベル推論攻撃(LIAs)を妨げない。
- 参考スコア(独自算出の注目度): 26.87328379562665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Label differential privacy (label-DP) is a popular framework for training
private ML models on datasets with public features and sensitive private
labels. Despite its rigorous privacy guarantee, it has been observed that in
practice label-DP does not preclude label inference attacks (LIAs): Models
trained with label-DP can be evaluated on the public training features to
recover, with high accuracy, the very private labels that it was designed to
protect. In this work, we argue that this phenomenon is not paradoxical and
that label-DP is designed to limit the advantage of an LIA adversary compared
to predicting training labels using the Bayes classifier. At label-DP
$\epsilon=0$ this advantage is zero, hence the optimal attack is to predict
according to the Bayes classifier and is independent of the training labels.
Our bound shows the semantic protection conferred by label-DP and gives
guidelines on how to choose $\varepsilon$ to limit the threat of LIAs below a
certain level. Finally, we empirically demonstrate that our result closely
captures the behavior of simulated attacks on both synthetic and real world
datasets.
- Abstract(参考訳): ラベル差分プライバシー(ラベルDP)は、パブリック機能と機密性の高いプライベートラベルを持つデータセット上で、プライベートMLモデルをトレーニングするための一般的なフレームワークである。
その厳格なプライバシー保証にもかかわらず、実際にはラベルDPがラベル推論攻撃(LIAs):ラベルDPで訓練されたモデルは、公開トレーニング機能で評価され、高い精度で保護されるように設計された非常にプライベートなラベルを評価できる。
本研究では,この現象はパラドックス的ではなく,ラベルDPはベイズ分類器を用いたトレーニングラベルの予測と比較して,LAAの利点を抑えるように設計されていると論じる。
label-dp $\epsilon=0$ この利点はゼロであるため、最適な攻撃はベイズ分類器に従って予測し、トレーニングラベルとは独立である。
label-dpが与える意味的保護を示し、特定のレベル以下のliaの脅威を制限するために$\varepsilon$を選択する方法のガイドラインを提供します。
最後に,本研究の結果が,合成データと実世界データの両方に対するシミュレーション攻撃の挙動を密接に捉えていることを示す。
関連論文リスト
- Reduction-based Pseudo-label Generation for Instance-dependent Partial Label Learning [41.345794038968776]
本稿では,誤り候補ラベルの影響を軽減するために,リダクションに基づく擬似ラベルを活用することを提案する。
推定モデルから生成した擬似ラベルと比較して,減算に基づく擬似ラベルはベイズ最適分類器との整合性が高いことを示す。
論文 参考訳(メタデータ) (2024-10-28T07:32:20Z) - LabObf: A Label Protection Scheme for Vertical Federated Learning Through Label Obfuscation [10.224977496821154]
Split Neural Networkは、プライバシー保護の特性から業界で人気がある。
悪意のある参加者は、アップロードされた埋め込みからラベル情報を推測するかもしれない。
本稿では,各整数値ラベルを複数の実数値ソフトラベルにランダムにマッピングする,LabObf'と呼ばれる新しいラベル難読化防衛戦略を提案する。
論文 参考訳(メタデータ) (2024-05-27T10:54:42Z) - Complementary Classifier Induced Partial Label Learning [54.61668156386079]
部分ラベル学習(PLL)では、各トレーニングサンプルは候補ラベルのセットに関連付けられ、そのうち1つのみが有効である。
曖昧さでは、既存の研究は通常、非候補ラベルセットの有効性を十分に調査しない。
本稿では,非候補ラベルを用いて補完的分類器を誘導し,従来の分類器に対する逆関係を自然に形成する。
論文 参考訳(メタデータ) (2023-05-17T02:13:23Z) - Label Inference Attack against Split Learning under Regression Setting [24.287752556622312]
回帰モデルのシナリオにおいて,プライベートラベルが連続数である場合の漏洩について検討する。
グラデーション情報と追加学習正規化目標を統合した,新たな学習ベースアタックを提案する。
論文 参考訳(メタデータ) (2023-01-18T03:17:24Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Transductive CLIP with Class-Conditional Contrastive Learning [68.51078382124331]
雑音ラベル付き分類ネットワークをスクラッチから学習するための新しいフレームワークであるTransductive CLIPを提案する。
擬似ラベルへの依存を軽減するために,クラス条件のコントラスト学習機構を提案する。
アンサンブルラベルは、ノイズラベル付きディープニューラルネットワークのトレーニングを安定化するための擬似ラベル更新戦略として採用されている。
論文 参考訳(メタデータ) (2022-06-13T14:04:57Z) - Label Leakage and Protection from Forward Embedding in Vertical
Federated Learning [19.96017956261838]
共有中間埋め込みからプライベートラベルを盗むことができる実用的なラベル推論手法を提案する。
ラベル攻撃の有効性は、中間埋め込みと対応するプライベートラベルとの相関から区別できない。
論文 参考訳(メタデータ) (2022-03-02T22:54:54Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - Label-Only Membership Inference Attacks [67.46072950620247]
ラベルのみのメンバシップ推論攻撃を導入する。
我々の攻撃は、摂動下でのモデルが予測するラベルの堅牢性を評価する。
差分プライバシーと(強い)L2正規化を備えたトレーニングモデルは、唯一知られている防衛戦略である。
論文 参考訳(メタデータ) (2020-07-28T15:44:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。