論文の概要: Knowledge Cross-Distillation for Membership Privacy
- arxiv url: http://arxiv.org/abs/2111.01363v1
- Date: Tue, 2 Nov 2021 04:16:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-03 14:37:45.139437
- Title: Knowledge Cross-Distillation for Membership Privacy
- Title(参考訳): 会員プライバシのための知識クロス蒸留
- Authors: Rishav Chourasia, Batnyam Enkhtaivan, Kunihiro Ito, Junki Mori, Isamu
Teranishi, Hikaru Tsuchida
- Abstract要約: 会員推測攻撃(MIA)は、機械学習モデルのトレーニングデータにプライバシー上のリスクをもたらす。
公的なデータを必要としない知識蒸留を用いたMIAに対する新たな防御法を提案する。
- 参考スコア(独自算出の注目度): 0.9087641068861045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A membership inference attack (MIA) poses privacy risks on the training data
of a machine learning model. With an MIA, an attacker guesses if the target
data are a member of the training dataset. The state-of-the-art defense against
MIAs, distillation for membership privacy (DMP), requires not only private data
to protect but a large amount of unlabeled public data. However, in certain
privacy-sensitive domains, such as medical and financial, the availability of
public data is not obvious. Moreover, a trivial method to generate the public
data by using generative adversarial networks significantly decreases the model
accuracy, as reported by the authors of DMP. To overcome this problem, we
propose a novel defense against MIAs using knowledge distillation without
requiring public data. Our experiments show that the privacy protection and
accuracy of our defense are comparable with those of DMP for the benchmark
tabular datasets used in MIA researches, Purchase100 and Texas100, and our
defense has much better privacy-utility trade-off than those of the existing
defenses without using public data for image dataset CIFAR10.
- Abstract(参考訳): 会員推測攻撃(MIA)は、機械学習モデルのトレーニングデータにプライバシー上のリスクをもたらす。
MIAでは、攻撃者がターゲットデータがトレーニングデータセットのメンバーかどうかを推測する。
MIAに対する最先端の防衛、会員プライバシ(DMP)の蒸留は、プライベートデータを保護するだけでなく、大量の未公開データを保護する必要がある。
しかし、医療や金融などのプライバシーに敏感な特定のドメインでは、公開データの可用性は明確ではない。
さらに,dmpの著者らが報告したように,生成型逆ネットワークを用いて公開データを生成する簡単な方法は,モデルの精度を著しく低下させる。
この問題を解決するために,公共データを必要としない知識蒸留によるMIA対策を提案する。
我々の研究は、MIA研究、Purchase100、Texas100で使用されるベンチマーク表データセットにおいて、我々の防衛のプライバシ保護と精度はDMPと同等であり、画像データセットCIFAR10に公開データを使うことなく、既存の防衛のプライバシユーティリティトレードオフよりもはるかに優れていることを示している。
関連論文リスト
- FT-PrivacyScore: Personalized Privacy Scoring Service for Machine Learning Participation [4.772368796656325]
実際には、制御されたデータアクセスは、多くの産業や研究環境でデータプライバシを保護する主要な方法である。
我々は,FT-PrivacyScoreのプロトタイプを開発し,モデル微調整作業に参加する際のプライバシーリスクを効率よく定量的に推定できることを実証した。
論文 参考訳(メタデータ) (2024-10-30T02:41:26Z) - A Zero Auxiliary Knowledge Membership Inference Attack on Aggregate Location Data [8.795538320219082]
位置データを集約するZero Auxiliary Knowledge (ZK) MIAを開発した。
これにより、実際の個々のトレースの補助データセットが不要になる。
ZK MIAは、敵が目標の位置情報のごく一部しか知らない場合でも有効であることを示す。
論文 参考訳(メタデータ) (2024-06-26T18:14:36Z) - $\alpha$-Mutual Information: A Tunable Privacy Measure for Privacy
Protection in Data Sharing [4.475091558538915]
本稿では, 有基の$alpha$-Mutual Informationを調整可能なプライバシ尺度として採用する。
我々は、プライバシ保護を提供するためにオリジナルのデータを操作するための一般的な歪みに基づくメカニズムを定式化する。
論文 参考訳(メタデータ) (2023-10-27T16:26:14Z) - A Cautionary Tale: On the Role of Reference Data in Empirical Privacy
Defenses [12.34501903200183]
本稿では,トレーニングデータと参照データの両方に関して,ユーティリティプライバシトレードオフを容易に理解可能なベースラインディフェンスを提案する。
私たちの実験では、驚くべきことに、最もよく研究され、現在最先端の実証的なプライバシー保護よりも優れています。
論文 参考訳(メタデータ) (2023-10-18T17:07:07Z) - Students Parrot Their Teachers: Membership Inference on Model
Distillation [54.392069096234074]
知識蒸留によるプライバシを,教師と学生のトレーニングセットの両方で研究する。
私たちの攻撃は、生徒セットと教師セットが類似している場合、または攻撃者が教師セットを毒できる場合、最強です。
論文 参考訳(メタデータ) (2023-03-06T19:16:23Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Certified Data Removal in Sum-Product Networks [78.27542864367821]
収集したデータの削除は、データのプライバシを保証するのに不十分であることが多い。
UnlearnSPNは、訓練された総生産ネットワークから単一データポイントの影響を取り除くアルゴリズムである。
論文 参考訳(メタデータ) (2022-10-04T08:22:37Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - On the Privacy Effect of Data Enhancement via the Lens of Memorization [20.63044895680223]
我々は,記憶化という新たな視点からプライバシを調査することを提案する。
記憶のレンズを通して、以前デプロイされたMIAは、より高いプライバシーリスクを持つサンプルを特定する可能性が低いため、誤解を招く結果をもたらすことがわかった。
一般化ギャップとプライバシリークは, これまでの結果に比べて相関が低いことを示す。
論文 参考訳(メタデータ) (2022-08-17T13:02:17Z) - The Privacy Onion Effect: Memorization is Relative [76.46529413546725]
もっとも脆弱な外接点の"層"を取り除くことで、前もって安全だった点の新たな層を同じ攻撃に晒す。
これは、機械学習のようなプライバシー強化技術が、他のユーザーのプライバシーに悪影響を及ぼす可能性を示唆している。
論文 参考訳(メタデータ) (2022-06-21T15:25:56Z) - Defending against Reconstruction Attacks with R\'enyi Differential
Privacy [72.1188520352079]
レコンストラクション攻撃により、敵は訓練されたモデルのみにアクセスすることで、トレーニングセットのデータサンプルを再生することができる。
差別化プライバシはこのような攻撃に対する既知の解決策であるが、比較的大きなプライバシ予算で使用されることが多い。
また、同機構により、従来の文献よりも優れた復元攻撃に対するプライバシー保証を導出できることを示す。
論文 参考訳(メタデータ) (2022-02-15T18:09:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。