論文の概要: Evaluating Membership Inference Through Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2205.06986v1
- Date: Sat, 14 May 2022 06:48:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 16:48:58.270618
- Title: Evaluating Membership Inference Through Adversarial Robustness
- Title(参考訳): 対人ロバスト性による会員推定の評価
- Authors: Zhaoxi Zhang and Leo Yu Zhang and Xufei Zheng and Bilal Hussain Abbasi
and Shengshan Hu
- Abstract要約: 本稿では,敵の強靭性に基づくメンバシップ推論攻撃の強化手法を提案する。
提案手法をFashion-MNIST, CIFAR-10, CIFAR-100の3つのデータセットで評価した。
- 参考スコア(独自算出の注目度): 6.983991370116041
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The usage of deep learning is being escalated in many applications. Due to
its outstanding performance, it is being used in a variety of security and
privacy-sensitive areas in addition to conventional applications. One of the
key aspects of deep learning efficacy is to have abundant data. This trait
leads to the usage of data which can be highly sensitive and private, which in
turn causes wariness with regard to deep learning in the general public.
Membership inference attacks are considered lethal as they can be used to
figure out whether a piece of data belongs to the training dataset or not. This
can be problematic with regards to leakage of training data information and its
characteristics. To highlight the significance of these types of attacks, we
propose an enhanced methodology for membership inference attacks based on
adversarial robustness, by adjusting the directions of adversarial
perturbations through label smoothing under a white-box setting. We evaluate
our proposed method on three datasets: Fashion-MNIST, CIFAR-10, and CIFAR-100.
Our experimental results reveal that the performance of our method surpasses
that of the existing adversarial robustness-based method when attacking
normally trained models. Additionally, through comparing our technique with the
state-of-the-art metric-based membership inference methods, our proposed method
also shows better performance when attacking adversarially trained models. The
code for reproducing the results of this work is available at
\url{https://github.com/plll4zzx/Evaluating-Membership-Inference-Through-Adversarial-Robustness}.
- Abstract(参考訳): ディープラーニングの利用は、多くのアプリケーションでエスカレートされている。
優れたパフォーマンスのため、従来のアプリケーションに加えて、さまざまなセキュリティやプライバシに敏感な分野で使用されている。
ディープラーニングの有効性の重要な側面の1つは、豊富なデータを持つことである。
この特徴は、非常に敏感でプライベートなデータの使用につながります。
メンバーシップ推論攻撃は、あるデータがトレーニングデータセットに属するかどうかを判断するために使用できるため、致命的とみなされる。
これは、トレーニングデータ情報の漏洩とその特性に関して問題となる。
この種の攻撃の意義を強調するため,ホワイトボックス環境下でのラベル平滑化による敵意の摂動方向の調整により,敵対的ロバスト性に基づくメンバーシップ推論攻撃の強化手法を提案する。
提案手法をFashion-MNIST, CIFAR-10, CIFAR-100の3つのデータセットで評価した。
実験結果から,本手法の性能は,通常訓練されたモデルを攻撃する場合,既存の対向ロバスト性に基づく手法を上回ることがわかった。
さらに,提案手法を最先端のメトリックベースメンバシップ推定法と比較することにより,対戦型モデルを攻撃する際の性能も向上した。
この成果を再現するコードは \url{https://github.com/plll4zzx/evaluating-membership-inference-through-adversarial-robustness} で入手できる。
関連論文リスト
- A practical approach to evaluating the adversarial distance for machine learning classifiers [2.2120851074630177]
本稿では,反復的対角攻撃と認証手法を用いたより情報性の高い対角距離の推定について検討する。
我々は,我々の敵攻撃アプローチが関連する実装と比較して有効であるのに対して,認証手法は期待に届かなかった。
論文 参考訳(メタデータ) (2024-09-05T14:57:01Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Class Incremental Learning for Adversarial Robustness [17.06592851567578]
アドリラルトレーニングは、モデルトレーニング中の敵の例を統合して、堅牢性を高める。
直感的な対人訓練と漸進的な学習を組み合わせることで、頑健さが失われることが容易に分かる。
本稿では, 対向型とクリーン型との出力差を生かしたFPD損失を提案する。
論文 参考訳(メタデータ) (2023-12-06T04:38:02Z) - Confidence Is All You Need for MI Attacks [7.743155804758186]
モデルのトレーニングセットにおけるデータポイントのメンバシップを計測する新しい手法を提案する。
トレーニング中、モデルは基本的にトレーニングデータに'適合'しており、目に見えないデータへの一般化において特に困難に直面している可能性がある。
論文 参考訳(メタデータ) (2023-11-26T18:09:24Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Enhanced Membership Inference Attacks against Machine Learning Models [9.26208227402571]
メンバーシップ推論攻撃は、モデルがトレーニングセット内の個々のデータポイントについてリークする個人情報の定量化に使用される。
我々は,AUCスコアを高い精度で達成できる新たな攻撃アルゴリズムを導き,その性能に影響を及ぼすさまざまな要因を強調した。
我々のアルゴリズムは、モデルにおけるプライバシ損失の極めて正確な近似を捉え、機械学習モデルにおけるプライバシリスクの正確かつ詳細な推定を行うためのツールとして使用することができる。
論文 参考訳(メタデータ) (2021-11-18T13:31:22Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。