論文の概要: TransMIA: Membership Inference Attacks Using Transfer Shadow Training
- arxiv url: http://arxiv.org/abs/2011.14661v3
- Date: Fri, 23 Apr 2021 14:50:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 14:55:10.836126
- Title: TransMIA: Membership Inference Attacks Using Transfer Shadow Training
- Title(参考訳): transmia: transfer shadow trainingを用いたメンバーシップ推論攻撃
- Authors: Seira Hidano, Takao Murakami, Yusuke Kawamoto
- Abstract要約: 本稿では、トランスファー学習を用いたトランスファー学習に基づくメンバーシップ推論攻撃(Transfer Learning-based Membership Inference Attacks)を提案する。
特に,提案手法では,移動モデルのパラメータを用いてシャドウモデルを構築する手法を提案する。
我々は、2つの実際のデータセットを用いて攻撃を評価し、我々の攻撃が我々の転送シャドウトレーニング技術を使用しない最先端技術よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 5.22523722171238
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Transfer learning has been widely studied and gained increasing popularity to
improve the accuracy of machine learning models by transferring some knowledge
acquired in different training. However, no prior work has pointed out that
transfer learning can strengthen privacy attacks on machine learning models. In
this paper, we propose TransMIA (Transfer learning-based Membership Inference
Attacks), which use transfer learning to perform membership inference attacks
on the source model when the adversary is able to access the parameters of the
transferred model. In particular, we propose a transfer shadow training
technique, where an adversary employs the parameters of the transferred model
to construct shadow models, to significantly improve the performance of
membership inference when a limited amount of shadow training data is available
to the adversary. We evaluate our attacks using two real datasets, and show
that our attacks outperform the state-of-the-art that does not use our transfer
shadow training technique. We also compare four combinations of the
learning-based/entropy-based approach and the fine-tuning/freezing approach,
all of which employ our transfer shadow training technique. Then we examine the
performance of these four approaches based on the distributions of confidence
values, and discuss possible countermeasures against our attacks.
- Abstract(参考訳): トランスファーラーニングは広く研究され、異なるトレーニングで得られた知識を転送することで機械学習モデルの精度を向上させるために人気が高まっている。
しかし、トランスファーラーニングが機械学習モデルに対するプライバシー攻撃を強化することは、これまでの研究で指摘されていない。
本稿では,トランスファー学習に基づくメンバーシップ推論攻撃(Transfer Learning-based Membership Inference Attacks)を提案する。
特に, 伝達モデルのパラメータを用いてシャドウモデルを構築するトランスファーシャドドートレーニング手法を提案し, 限られた量のシャドウトレーニングデータが利用可能な場合に, メンバシップ推論の性能を大幅に向上させる。
我々は2つの実際のデータセットを用いて攻撃を評価し、転送シャドートレーニング技術を使用しない最先端技術よりも攻撃が優れていることを示す。
また,学習ベース/エントロピーベースアプローチと微調整/フリーズアプローチの4つの組み合わせを比較した。
次に,信頼度分布に基づくこれらの4つの手法の性能について検討し,攻撃対策の可能性を検討する。
関連論文リスト
- Prompt-Driven Contrastive Learning for Transferable Adversarial Attacks [42.18755809782401]
PDCL-Attackと呼ばれる新しいトランスファー攻撃法を提案する。
テキストのセマンティック表現力を利用して効果的なプロンプト駆動型特徴ガイダンスを定式化する。
論文 参考訳(メタデータ) (2024-07-30T08:52:16Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Adversarial Training Helps Transfer Learning via Better Representations [17.497590668804055]
Transfer Learningは、ソースデータに事前トレーニングされたモデルを活用して、ターゲット設定に効率的に適応することを目的としている。
最近の研究は、情報源データにおける敵対的訓練が、新しいドメインへのモデル転送能力を向上させることを実証的に実証している。
本研究は, 情報源データにおける対角的学習により, より優れた表現が生成されることを示し, この表現を微調整することで, 対象データのより正確な予測が可能であることを示す。
論文 参考訳(メタデータ) (2021-06-18T15:41:07Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Empirical Evaluation of Supervision Signals for Style Transfer Models [44.39622949370144]
本研究は,トレーニング中に指導信号を提供する支配的な最適化パラダイムを実証的に比較する。
バックトランスレーションにはモデル固有の制限があり、トレーニングスタイルのトランスファーモデルを阻害する。
また、私たちの知識では、スタイル転送のタスクで経験的に評価されていない機械翻訳コミュニティで人気のあるテクニックである最小リスクトレーニングを実験しています。
論文 参考訳(メタデータ) (2021-01-15T15:33:30Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。