論文の概要: Reducing Risk of Model Inversion Using Privacy-Guided Training
- arxiv url: http://arxiv.org/abs/2006.15877v1
- Date: Mon, 29 Jun 2020 09:02:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 14:23:21.866945
- Title: Reducing Risk of Model Inversion Using Privacy-Guided Training
- Title(参考訳): プライバシガイドトレーニングによるモデルインバージョンリスクの低減
- Authors: Abigail Goldsteen, Gilad Ezov, Ariel Farkash
- Abstract要約: 最近の攻撃では、訓練されたモデルから機密情報を推測することができた。
本稿では,木系モデルにおけるモデル逆転攻撃に対する対策について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models often pose a threat to the privacy of individuals
whose data is part of the training set. Several recent attacks have been able
to infer sensitive information from trained models, including model inversion
or attribute inference attacks. These attacks are able to reveal the values of
certain sensitive features of individuals who participated in training the
model. It has also been shown that several factors can contribute to an
increased risk of model inversion, including feature influence. We observe that
not all features necessarily share the same level of privacy or sensitivity. In
many cases, certain features used to train a model are considered especially
sensitive and therefore propitious candidates for inversion. We present a
solution for countering model inversion attacks in tree-based models, by
reducing the influence of sensitive features in these models. This is an avenue
that has not yet been thoroughly investigated, with only very nascent previous
attempts at using this as a countermeasure against attribute inference. Our
work shows that, in many cases, it is possible to train a model in different
ways, resulting in different influence levels of the various features, without
necessarily harming the model's accuracy. We are able to utilize this fact to
train models in a manner that reduces the model's reliance on the most
sensitive features, while increasing the importance of less sensitive features.
Our evaluation confirms that training models in this manner reduces the risk of
inference for those features, as demonstrated through several black-box and
white-box attacks.
- Abstract(参考訳): 機械学習モデルは、データがトレーニングセットの一部である個人のプライバシーに脅威をもたらすことが多い。
最近の攻撃では、モデルインバージョンや属性推論攻撃など、トレーニングされたモデルから機密情報を推測することができる。
これらの攻撃は、モデルのトレーニングに参加した個人の特定の敏感な特徴の値を明らかにすることができる。
また、いくつかの要因が機能の影響を含むモデル反転のリスクの増加に寄与することが示されている。
すべての機能が必ずしも同じレベルのプライバシーや感受性を共有しているわけではない。
多くの場合、モデルを訓練するのに使われる特定の特徴は特に敏感であり、逆転候補であると考えられている。
本稿では,木質モデルにおけるモデル逆転攻撃に対する対策として,これらのモデルにおける感度特性の影響を低減した手法を提案する。
これはまだ徹底的に調査されていない通りであり、属性推論に対する対策としてこれを利用する試みはごく初期のものである。
私たちの研究は、多くの場合、異なる方法でモデルをトレーニングすることができ、モデルの正確さを損なうことなく、さまざまな機能の影響レベルが異なることを示しています。
この事実を利用してモデルをトレーニングし、最も敏感な機能への依存を減らすと同時に、感度の低い機能の重要性を高めることができます。
この方法でのトレーニングモデルにより,ブラックボックス攻撃やホワイトボックス攻撃による推論のリスクが軽減されることを確認した。
関連論文リスト
- Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Security and Privacy Challenges in Deep Learning Models [0.0]
ディープラーニングモデルは、モデルのセキュリティとデータのプライバシを侵害するさまざまな攻撃を受けることができる。
モデル抽出攻撃、モデル反転攻撃、および敵攻撃について論じる。
データ中毒攻撃は、トレーニングセットに有害なデータを追加し、学習プロセスを中断し、ディープラーニングモードの信頼性を低下させる。
論文 参考訳(メタデータ) (2023-11-23T00:26:14Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Are Your Sensitive Attributes Private? Novel Model Inversion Attribute
Inference Attacks on Classification Models [22.569705869469814]
トレーニングデータ中のレコードの非感受性属性を敵が知る場合のモデル反転攻撃に着目した。
我々は,信頼性スコアに基づくモデル逆属性推論攻撃を考案し,その精度を著しく向上させる。
また、ターゲットレコードの他の(非感受性の)属性が敵に未知なシナリオにまで攻撃を拡大します。
論文 参考訳(メタデータ) (2022-01-23T21:27:20Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z) - Adversarial Learning with Cost-Sensitive Classes [7.6596177815175475]
いくつかの特殊クラスのパフォーマンスを向上させるか、特に敵の学習における攻撃からそれらを保護する必要がある。
本論文では,コストに敏感な分類と対比学習を組み合わせて,保護クラスと非保護クラスを区別できるモデルを訓練するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-29T03:15:40Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。