論文の概要: Dataset correlation inference attacks against machine learning models
- arxiv url: http://arxiv.org/abs/2112.08806v1
- Date: Thu, 16 Dec 2021 11:42:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-17 16:23:26.876276
- Title: Dataset correlation inference attacks against machine learning models
- Title(参考訳): 機械学習モデルに対するデータセット相関推論攻撃
- Authors: Ana-Maria Cre\c{t}u, Florent Gu\'epin and Yves-Alexandre de Montjoye
- Abstract要約: 機械学習モデルに対するデータセット相関推論攻撃を提案する。
攻撃者の目標は、モデルの入力変数間の相関を推測することである。
私たちの作業は、トレーニングデータセットに関するグローバルなリークと見なされるものと、個々のレベルのリークとの間のギャップを埋めるものです。
- 参考スコア(独自算出の注目度): 2.386867140645281
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models are increasingly used by businesses and organizations
around the world to automate tasks and decision-making. Trained on potentially
sensitive datasets, machine learning models have been shown to leak information
about individuals in the dataset as well as global dataset information. We here
take research in dataset property inference attacks one step further by
proposing a new attack against ML models: a dataset correlation inference
attack, where an attacker's goal is to infer the correlation between input
variables of a model. We first show that an attacker can exploit the spherical
parametrization of correlation matrices, to make an informed guess. This means
that using only the correlation between the input variables and the target
variable, an attacker can infer the correlation between two input variables
much better than a random guess baseline. We propose a second attack which
exploits the access to a machine learning model using shadow modeling to refine
the guess. Our attack uses Gaussian copula-based generative modeling to
generate synthetic datasets with a wide variety of correlations in order to
train a meta-model for the correlation inference task. We evaluate our attack
against Logistic Regression and Multi-layer perceptron models and show it to
outperform the model-less attack. Our results show that the accuracy of the
second, machine learning-based attack decreases with the number of variables
and converges towards the accuracy of the model-less attack. However,
correlations between input variables which are highly correlated with the
target variable are more vulnerable regardless of the number of variables. Our
work bridges the gap between what can be considered a global leakage about the
training dataset and individual-level leakages. When coupled with marginal
leakage attacks,it might also constitute a first step towards dataset
reconstruction.
- Abstract(参考訳): 機械学習モデルは、世界中の企業や組織がタスクや意思決定を自動化するためにますます利用されている。
潜在的にセンシティブなデータセットでトレーニングされた機械学習モデルは、データセット内の個人に関する情報だけでなく、グローバルデータセットの情報もリークすることが示されている。
ここでは,mlモデルに対する新たな攻撃を提案することによって,データセットプロパティ推論攻撃の研究をさらに一歩進めて,攻撃者の目標がモデルの入力変数間の相関関係を推測することにある。
まず,攻撃者が相関行列の球面パラメトリゼーションを活用し,情報に基づく推測を行うことを示す。
つまり、入力変数とターゲット変数の相関のみを使用することで、攻撃者は2つの入力変数間の相関をランダムな推測ベースラインよりもはるかに良く推測することができる。
本稿では、シャドウモデリングを用いて機械学習モデルへのアクセスを利用して推測を洗練する第2の攻撃を提案する。
我々の攻撃はガウスコプラに基づく生成モデルを用いて、相関推論タスクのためのメタモデルを訓練するために、様々な相関関係を持つ合成データセットを生成する。
我々は,ロジスティック回帰および多層パーセプトロンモデルに対する攻撃を評価し,モデルレス攻撃よりも優れることを示す。
その結果,第2の機械学習による攻撃の精度は変数数によって低下し,モデルレス攻撃の精度に向かって収束することがわかった。
しかし,対象変数と高い相関関係を持つ入力変数間の相関は,変数数に関係なくより脆弱である。
私たちの研究は、トレーニングデータセットに関するグローバルなリークと、個人レベルのリークとのギャップを埋めるものです。
限界リーク攻撃と組み合わせると、データセットの再構築への第一歩となるかもしれない。
関連論文リスト
- When Machine Learning Models Leak: An Exploration of Synthetic Training
Data [0.0]
今後2年間で人や家庭が移転するかどうかを予測する機械学習モデルに対する攻撃について検討する。
この攻撃は、攻撃者がモデルをクエリして予測を得ることができ、モデルがトレーニングされたデータの限界分布が公開されていると仮定する。
モデルのトレーニングにおいて、元のデータを合成データに置き換えることが、攻撃者がどのように機密属性を推測できるかにどのように影響するかを検討する。
論文 参考訳(メタデータ) (2023-10-12T23:47:22Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Label-only Model Inversion Attack: The Attack that Requires the Least
Information [14.061083728194378]
モデル反転攻撃では、敵はモデル出力のみを使用してターゲットモデルをトレーニングするために使用されるデータレコードを再構築しようと試みる。
出力ラベルのみに基づいて入力データレコードを再構成できるモデル逆変換法が発見された。
論文 参考訳(メタデータ) (2022-03-13T03:03:49Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - Property Inference Attacks on Convolutional Neural Networks: Influence
and Implications of Target Model's Complexity [1.2891210250935143]
プロパティ推論攻撃は、トレーニングデータセットに関する与えられたモデルプロパティをモデルの主な目標とは無関係に推測することを目的としている。
本稿では,ターゲットモデルの複雑性が攻撃の精度に及ぼす影響について検討する。
その結果,ターゲットモデルの複雑さとは無関係に,プライバシ侵害のリスクがあることが判明した。
論文 参考訳(メタデータ) (2021-04-27T09:19:36Z) - Learning to Model and Ignore Dataset Bias with Mixed Capacity Ensembles [66.15398165275926]
本稿では,データセット固有のパターンを自動的に検出・無視する手法を提案する。
我々の方法は、より高い容量モデルでアンサンブルで低容量モデルを訓練する。
視覚的質問応答データセットの10ポイントゲインを含む,すべての設定の改善を示す。
論文 参考訳(メタデータ) (2020-11-07T22:20:03Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - Differentiable Language Model Adversarial Attacks on Categorical
Sequence Classifiers [0.0]
敵対的攻撃パラダイムは、ディープラーニングモデルの脆弱性の様々なシナリオを探索する。
本研究では,言語モデルの微調整を,敵対的攻撃のジェネレータとして利用する。
我々のモデルは、銀行取引、電子健康記録、NLPデータセットに関する多様なデータセットに対して機能する。
論文 参考訳(メタデータ) (2020-06-19T11:25:36Z) - Modelling and Quantifying Membership Information Leakage in Machine
Learning [14.095523601311374]
我々は、ディープニューラルネットワークのような複雑なモデルが、メンバーシップ推論攻撃の影響を受けやすいことを示す。
本稿では,Gaussian $(epsilon,delta)$-differentially-private additive noiseを使用する場合,メンバシップ情報漏洩の量は$mathcalO(log1/2(delta-1)epsilon-1)$で減少することを示す。
論文 参考訳(メタデータ) (2020-01-29T00:42:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。