論文の概要: Variational Model Inversion Attacks
- arxiv url: http://arxiv.org/abs/2201.10787v1
- Date: Wed, 26 Jan 2022 07:39:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-27 20:04:54.636927
- Title: Variational Model Inversion Attacks
- Title(参考訳): 変分モデルインバージョンアタック
- Authors: Kuan-Chieh Wang, Yan Fu, Ke Li, Ashish Khisti, Richard Zemel, Alireza
Makhzani
- Abstract要約: モデル反転攻撃では、悪意のあるユーザは、教師付きニューラルネットワークをトレーニングするために使用されるプライベートデータセットを復元しようとします。
成功したモデル反転攻撃は、プライベートデータセット内の各クラスを正確に記述する現実的で多様なサンプルを生成する必要がある。
本研究では,モデル反転攻撃の確率論的解釈を提供し,多様性と精度の両方を考慮に入れた変動目的を定式化する。
- 参考スコア(独自算出の注目度): 26.613251410498755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given the ubiquity of deep neural networks, it is important that these models
do not reveal information about sensitive data that they have been trained on.
In model inversion attacks, a malicious user attempts to recover the private
dataset used to train a supervised neural network. A successful model inversion
attack should generate realistic and diverse samples that accurately describe
each of the classes in the private dataset. In this work, we provide a
probabilistic interpretation of model inversion attacks, and formulate a
variational objective that accounts for both diversity and accuracy. In order
to optimize this variational objective, we choose a variational family defined
in the code space of a deep generative model, trained on a public auxiliary
dataset that shares some structural similarity with the target dataset.
Empirically, our method substantially improves performance in terms of target
attack accuracy, sample realism, and diversity on datasets of faces and chest
X-ray images.
- Abstract(参考訳): ディープニューラルネットワークの普及を考えると、これらのモデルがトレーニングされた機密データに関する情報を明らかにしないことが重要である。
モデル反転攻撃では、悪意のあるユーザは、教師付きニューラルネットワークのトレーニングに使用されるプライベートデータセットを復元しようとする。
成功したモデル反転攻撃は、プライベートデータセット内の各クラスを正確に記述する現実的で多様なサンプルを生成する必要がある。
本研究では,モデル反転攻撃の確率論的解釈を提供し,多様性と精度の両方を考慮に入れた変動目的を定式化する。
この変動目的を最適化するために、ターゲットデータセットと構造的類似性を共有する公開補助データセットに基づいてトレーニングされた、深層生成モデルのコード空間で定義された変動族を選択する。
実験により,本手法は顔と胸部X線画像のデータセットにおけるターゲット攻撃精度,サンプルリアリズム,多様性の観点から,性能を著しく向上する。
関連論文リスト
- Learning Augmentation Policies from A Model Zoo for Time Series Forecasting [58.66211334969299]
本稿では,強化学習に基づく学習可能なデータ拡張手法であるAutoTSAugを紹介する。
限界サンプルを学習可能なポリシーで強化することにより、AutoTSAugは予測性能を大幅に改善する。
論文 参考訳(メタデータ) (2024-09-10T07:34:19Z) - Out of the Ordinary: Spectrally Adapting Regression for Covariate Shift [12.770658031721435]
本稿では,学習前のニューラル回帰モデルの最後の層の重みを適応させて,異なる分布から得られる入力データを改善する手法を提案する。
本稿では,この軽量なスペクトル適応手法により,合成および実世界のデータセットの分布外性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-29T04:15:58Z) - Boosting Model Inversion Attacks with Adversarial Examples [26.904051413441316]
ブラックボックス設定において、より高い攻撃精度を達成できる学習ベースモデル反転攻撃のための新しい訓練パラダイムを提案する。
まず,攻撃モデルの学習過程を,意味的損失関数を追加して規則化する。
第2に、学習データに逆例を注入し、クラス関連部の多様性を高める。
論文 参考訳(メタデータ) (2023-06-24T13:40:58Z) - DST: Dynamic Substitute Training for Data-free Black-box Attack [79.61601742693713]
そこで本研究では,対象モデルからより高速に学習するための代用モデルの促進を目的とした,新しい動的代用トレーニング攻撃手法を提案する。
タスク駆動型グラフに基づく構造情報学習の制約を導入し、生成したトレーニングデータの質を向上させる。
論文 参考訳(メタデータ) (2022-04-03T02:29:11Z) - Selecting the suitable resampling strategy for imbalanced data
classification regarding dataset properties [62.997667081978825]
医学、情報検索、サイバーセキュリティ、ソーシャルメディアなどの多くのアプリケーションドメインでは、分類モデルの導入に使用されるデータセットは、各クラスのインスタンスの不平等な分布を持つことが多い。
この状況は不均衡データ分類と呼ばれ、少数民族の例では予測性能が低い。
オーバーサンプリングとアンダーサンプリングの技術は、各クラスの例の数とバランスをとることでこの問題に対処する、よく知られた戦略である。
論文 参考訳(メタデータ) (2021-12-15T18:56:39Z) - Property Inference Attacks on Convolutional Neural Networks: Influence
and Implications of Target Model's Complexity [1.2891210250935143]
プロパティ推論攻撃は、トレーニングデータセットに関する与えられたモデルプロパティをモデルの主な目標とは無関係に推測することを目的としている。
本稿では,ターゲットモデルの複雑性が攻撃の精度に及ぼす影響について検討する。
その結果,ターゲットモデルの複雑さとは無関係に,プライバシ侵害のリスクがあることが判明した。
論文 参考訳(メタデータ) (2021-04-27T09:19:36Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。