論文の概要: Data and Model Dependencies of Membership Inference Attack
- arxiv url: http://arxiv.org/abs/2002.06856v5
- Date: Sat, 25 Jul 2020 06:25:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 11:58:31.583767
- Title: Data and Model Dependencies of Membership Inference Attack
- Title(参考訳): 会員推測攻撃のデータとモデル依存性
- Authors: Shakila Mahjabin Tonni, Dinusha Vatsalan, Farhad Farokhi, Dali Kaafar,
Zhigang Lu and Gioacchino Tangari
- Abstract要約: 我々は、データとMLモデル特性の両方がMIAに対するML手法の脆弱性に与える影響を実証分析する。
この結果から,MIAの精度とデータセットの特性と使用中のトレーニングモデルとの関係が明らかになった。
我々は,これらのデータとモデル特性をレギュレータとして利用し,MLモデルをMIAに対して保護することを提案する。
- 参考スコア(独自算出の注目度): 13.951470844348899
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) models have been shown to be vulnerable to Membership
Inference Attacks (MIA), which infer the membership of a given data point in
the target dataset by observing the prediction output of the ML model. While
the key factors for the success of MIA have not yet been fully understood,
existing defense mechanisms such as using L2 regularization
\cite{10shokri2017membership} and dropout layers \cite{salem2018ml} take only
the model's overfitting property into consideration. In this paper, we provide
an empirical analysis of the impact of both the data and ML model properties on
the vulnerability of ML techniques to MIA. Our results reveal the relationship
between MIA accuracy and properties of the dataset and training model in use.
In particular, we show that the size of shadow dataset, the class and feature
balance and the entropy of the target dataset, the configurations and fairness
of the training model are the most influential factors. Based on those
experimental findings, we conclude that along with model overfitting, multiple
properties jointly contribute to MIA success instead of any single property.
Building on our experimental findings, we propose using those data and model
properties as regularizers to protect ML models against MIA. Our results show
that the proposed defense mechanisms can reduce the MIA accuracy by up to 25\%
without sacrificing the ML model prediction utility.
- Abstract(参考訳): 機械学習(ML)モデルは、MLモデルの予測出力を観察して、ターゲットデータセット内の所定のデータポイントのメンバシップを推測するメンバーシップ推論攻撃(MIA)に対して脆弱であることが示されている。
MIAの成功の鍵となる要因はまだ完全には分かっていないが、L2正規化 \cite{10shokri2017membership} やドロップアウト層 \cite{salem2018ml} のような既存の防御メカニズムは、モデルの過度な適合性のみを考慮している。
本稿では,データとMLモデル特性がMIAに対するML手法の脆弱性に与える影響を実証的に分析する。
この結果から,MIAの精度とデータセットの特性と使用中のトレーニングモデルとの関係が明らかになった。
特に,シャドウデータセットのサイズ,クラスと特徴のバランス,対象データセットのエントロピー,トレーニングモデルのコンフィギュレーションと公平性が,最も影響のある要因であることを示す。
これらの実験結果から,モデルオーバーフィッティングとともに,複数の特性が協調してmiaの成功に寄与することが示唆された。
実験結果に基づき,これらのデータとモデル特性を正規化剤として利用し,mlモデルからmiaを保護する。
提案する防御機構は,mlモデル予測ユーティリティを犠牲にすることなく,最大25\%のmia精度を低減できることを示した。
関連論文リスト
- Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Impact of Missing Values in Machine Learning: A Comprehensive Analysis [0.0]
本稿では,機械学習(ML)モデルにおける欠落値の影響について検討する。
分析では、バイアス付き推論、予測能力の低下、計算負荷の増大など、欠落した値による課題に焦点を当てた。
この研究は、欠落した値に対処する実践的な意味を説明するためにケーススタディと実例を用いている。
論文 参考訳(メタデータ) (2024-10-10T18:31:44Z) - Active Fourier Auditor for Estimating Distributional Properties of ML Models [10.581140430698103]
堅牢性、個人的公正性、グループ的公正性という3つの特性に注目します。
我々は,監査下のMLモデルのフーリエ係数の観点から,異なる特性を定量化する新しいフレームワークを開発する。
我々は、AFAの推定値に基づいて高い確率誤差境界を導出し、サンプルの複雑さに関する最悪の低い境界を検査するために導出する。
論文 参考訳(メタデータ) (2024-10-10T16:57:01Z) - Decomposing and Editing Predictions by Modeling Model Computation [75.37535202884463]
コンポーネントモデリングというタスクを導入します。
コンポーネントモデリングの目標は、MLモデルの予測をコンポーネントの観点から分解することだ。
コンポーネント属性を推定するスケーラブルなアルゴリズムであるCOARを提案する。
論文 参考訳(メタデータ) (2024-04-17T16:28:08Z) - Assessing Privacy Risks in Language Models: A Case Study on
Summarization Tasks [65.21536453075275]
我々は要約作業に焦点をあて、会員推測(MI)攻撃について調査する。
テキストの類似性や文書修正に対するモデルの抵抗をMI信号として活用する。
我々は、MI攻撃から保護するための要約モデルの訓練と、プライバシとユーティリティの本質的にのトレードオフについて議論する。
論文 参考訳(メタデータ) (2023-10-20T05:44:39Z) - Self-Supervised Dataset Distillation for Transfer Learning [77.4714995131992]
ラベルなしデータセットを、効率的な自己教師付き学習(SSL)のための小さな合成サンプル群に蒸留する新しい問題を提案する。
両レベル最適化におけるSSL目標に対する合成サンプルの勾配は、データ拡張やマスキングから生じるランダム性から、テキストバイアスを受けていることを最初に証明する。
転送学習を含む様々な応用における本手法の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2023-10-10T10:48:52Z) - Towards Better Modeling with Missing Data: A Contrastive Learning-based
Visual Analytics Perspective [7.577040836988683]
データ不足は機械学習(ML)モデリングの課題となる可能性がある。
現在のアプローチは、特徴計算とラベル予測に分類される。
本研究は、観測データに欠落した値でモデル化するコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T13:16:24Z) - Oversampling Higher-Performing Minorities During Machine Learning Model
Training Reduces Adverse Impact Slightly but Also Reduces Model Accuracy [18.849426971487077]
トレーニングデータにおける有害影響率を操作するために,少数者(黒人およびヒスパニック系)を体系的に過小評価し,過大評価した。
その結果,トレーニングデータによる影響は,MLモデルの悪影響と線形に関連していることがわかった。
本研究は, 自己申告書と面接書にまたがる一貫した効果を観察し, 実測, 合成観察をオーバーサンプリングした。
論文 参考訳(メタデータ) (2023-04-27T02:53:29Z) - An Investigation of Smart Contract for Collaborative Machine Learning
Model Training [3.5679973993372642]
協調機械学習(CML)はビッグデータ時代において様々な分野に浸透してきた。
MLモデルのトレーニングには大量の高品質なデータが必要であるため、データのプライバシに関する懸念を取り除く必要がある。
ブロックチェーンに基づいて、スマートコントラクトはデータ保存とバリデーションの自動実行を可能にする。
論文 参考訳(メタデータ) (2022-09-12T04:25:01Z) - Measuring Causal Effects of Data Statistics on Language Model's
`Factual' Predictions [59.284907093349425]
大量のトレーニングデータが、最先端のNLPモデルの高性能化の大きな理由の1つである。
トレーニングデータがどのように予測に影響を及ぼすかを記述するための言語を,因果的フレームワークを通じて提供する。
我々のフレームワークは、高価なモデルの再訓練の必要性を回避し、観測データのみに基づいて因果効果を推定することができる。
論文 参考訳(メタデータ) (2022-07-28T17:36:24Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。