論文の概要: Dataset correlation inference attacks against machine learning models
- arxiv url: http://arxiv.org/abs/2112.08806v1
- Date: Thu, 16 Dec 2021 11:42:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-17 16:23:26.876276
- Title: Dataset correlation inference attacks against machine learning models
- Title(参考訳): 機械学習モデルに対するデータセット相関推論攻撃
- Authors: Ana-Maria Cre\c{t}u, Florent Gu\'epin and Yves-Alexandre de Montjoye
- Abstract要約: 機械学習モデルに対するデータセット相関推論攻撃を提案する。
攻撃者の目標は、モデルの入力変数間の相関を推測することである。
私たちの作業は、トレーニングデータセットに関するグローバルなリークと見なされるものと、個々のレベルのリークとの間のギャップを埋めるものです。
- 参考スコア(独自算出の注目度): 2.386867140645281
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models are increasingly used by businesses and organizations
around the world to automate tasks and decision-making. Trained on potentially
sensitive datasets, machine learning models have been shown to leak information
about individuals in the dataset as well as global dataset information. We here
take research in dataset property inference attacks one step further by
proposing a new attack against ML models: a dataset correlation inference
attack, where an attacker's goal is to infer the correlation between input
variables of a model. We first show that an attacker can exploit the spherical
parametrization of correlation matrices, to make an informed guess. This means
that using only the correlation between the input variables and the target
variable, an attacker can infer the correlation between two input variables
much better than a random guess baseline. We propose a second attack which
exploits the access to a machine learning model using shadow modeling to refine
the guess. Our attack uses Gaussian copula-based generative modeling to
generate synthetic datasets with a wide variety of correlations in order to
train a meta-model for the correlation inference task. We evaluate our attack
against Logistic Regression and Multi-layer perceptron models and show it to
outperform the model-less attack. Our results show that the accuracy of the
second, machine learning-based attack decreases with the number of variables
and converges towards the accuracy of the model-less attack. However,
correlations between input variables which are highly correlated with the
target variable are more vulnerable regardless of the number of variables. Our
work bridges the gap between what can be considered a global leakage about the
training dataset and individual-level leakages. When coupled with marginal
leakage attacks,it might also constitute a first step towards dataset
reconstruction.
- Abstract(参考訳): 機械学習モデルは、世界中の企業や組織がタスクや意思決定を自動化するためにますます利用されている。
潜在的にセンシティブなデータセットでトレーニングされた機械学習モデルは、データセット内の個人に関する情報だけでなく、グローバルデータセットの情報もリークすることが示されている。
ここでは,mlモデルに対する新たな攻撃を提案することによって,データセットプロパティ推論攻撃の研究をさらに一歩進めて,攻撃者の目標がモデルの入力変数間の相関関係を推測することにある。
まず,攻撃者が相関行列の球面パラメトリゼーションを活用し,情報に基づく推測を行うことを示す。
つまり、入力変数とターゲット変数の相関のみを使用することで、攻撃者は2つの入力変数間の相関をランダムな推測ベースラインよりもはるかに良く推測することができる。
本稿では、シャドウモデリングを用いて機械学習モデルへのアクセスを利用して推測を洗練する第2の攻撃を提案する。
我々の攻撃はガウスコプラに基づく生成モデルを用いて、相関推論タスクのためのメタモデルを訓練するために、様々な相関関係を持つ合成データセットを生成する。
我々は,ロジスティック回帰および多層パーセプトロンモデルに対する攻撃を評価し,モデルレス攻撃よりも優れることを示す。
その結果,第2の機械学習による攻撃の精度は変数数によって低下し,モデルレス攻撃の精度に向かって収束することがわかった。
しかし,対象変数と高い相関関係を持つ入力変数間の相関は,変数数に関係なくより脆弱である。
私たちの研究は、トレーニングデータセットに関するグローバルなリークと、個人レベルのリークとのギャップを埋めるものです。
限界リーク攻撃と組み合わせると、データセットの再構築への第一歩となるかもしれない。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Measuring and Improving Attentiveness to Partial Inputs with Counterfactuals [91.59906995214209]
我々は,新しい評価手法であるCAT(Facterfactual Attentiveness Test)を提案する。
CATは、入力の一部を別の例から別の例に置き換えることで、予測を変更する注意深いモデルを期待することで、反事実を使用する。
実験データの精度が向上する一方, GPT3 は実演回数の増加により注意力の低下がみられた。
論文 参考訳(メタデータ) (2023-11-16T06:27:35Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - Membership Inference Attacks against Language Models via Neighbourhood
Comparison [45.086816556309266]
メンバーシップ推論攻撃(MIA)は、機械学習モデルのトレーニングデータにデータサンプルが存在するかどうかを予測することを目的としている。
近年の研究では、類似データに基づいてトレーニングされた参照モデルとモデルスコアを比較した参照ベースの攻撃は、MIAの性能を大幅に向上することを示した。
より現実的なシナリオでそれらの性能を調査し、参照モデルのトレーニングに使用されるデータ分布に関して非常に脆弱であることを示す。
論文 参考訳(メタデータ) (2023-05-29T07:06:03Z) - Analysis of Interpolating Regression Models and the Double Descent
Phenomenon [3.883460584034765]
ノイズの多いトレーニングデータを補間するモデルは、一般化に乏しいと一般的に推測されている。
得られた最良のモデルは過度にパラメータ化され、テストエラーはモデル順序が増加するにつれて二重降下挙動を示す。
回帰行列の最小特異値の振舞いに基づいて、テスト誤差のピーク位置と二重降下形状をモデル順序の関数として説明する。
論文 参考訳(メタデータ) (2023-04-17T09:44:33Z) - MEGA: Model Stealing via Collaborative Generator-Substitute Networks [4.065949099860426]
近年のデータフリーモデルステイティングメソッドは,実際のクエリの例を使わずに,ターゲットモデルの知識を抽出するために有効であることが示されている。
本稿では,データフリーモデルステーリングフレームワーク(MEGA)を提案する。
以上の結果から,我々の訓練した代替モデルの精度と敵攻撃成功率は,最先端のデータフリーブラックボックス攻撃よりも最大で33%,40%高い値となる可能性が示唆された。
論文 参考訳(メタデータ) (2022-01-31T09:34:28Z) - Influence Tuning: Demoting Spurious Correlations via Instance
Attribution and Instance-Driven Updates [26.527311287924995]
インフルエンスチューニングは、データの急激なパターンからモデルを分解するのに役立ちます。
制御された設定では、インフルエンスチューニングは、データの急激なパターンからモデルを分解するのに役立ちます。
論文 参考訳(メタデータ) (2021-10-07T06:59:46Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Query-free Black-box Adversarial Attacks on Graphs [37.88689315688314]
そこで,攻撃者は対象モデルについて知識がなく,クエリーアクセスも行わないグラフに対して,クエリフリーなブラックボックス攻撃を提案する。
対象モデルに対するフリップリンクの影響をスペクトル変化によって定量化できることを証明し,固有値摂動理論を用いて近似する。
その単純さとスケーラビリティのため、提案モデルは様々なグラフベースモデルで一般的なだけでなく、異なる知識レベルがアクセス可能であれば容易に拡張できる。
論文 参考訳(メタデータ) (2020-12-12T08:52:56Z) - Learning to Model and Ignore Dataset Bias with Mixed Capacity Ensembles [66.15398165275926]
本稿では,データセット固有のパターンを自動的に検出・無視する手法を提案する。
我々の方法は、より高い容量モデルでアンサンブルで低容量モデルを訓練する。
視覚的質問応答データセットの10ポイントゲインを含む,すべての設定の改善を示す。
論文 参考訳(メタデータ) (2020-11-07T22:20:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。