論文の概要: Accuracy-Privacy Trade-off in Deep Ensemble
- arxiv url: http://arxiv.org/abs/2105.05381v1
- Date: Wed, 12 May 2021 00:58:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 12:29:41.102932
- Title: Accuracy-Privacy Trade-off in Deep Ensemble
- Title(参考訳): 深層アンサンブルにおける精度-プライバシートレードオフ
- Authors: Shahbaz Rezaei, Zubair Shafiq, Xin Liu
- Abstract要約: 私たちは、アンサンブル学習の2つの目標、すなわち精度とプライバシーの向上が互いに直接衝突することを示しています。
アンサンブルはプライバシーや正確性を向上できるが、両方を同時に改善するものではない。
正規化や差分プライバシーなどのMI攻撃に対する防御効果の評価は,MI攻撃の有効性を軽減できるが,同時にアンサンブルの精度を低下させることができることを示す。
- 参考スコア(独自算出の注目度): 12.87620316721433
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep ensemble learning aims to improve the classification accuracy by
training several neural networks and fusing their outputs. It has been widely
shown to improve accuracy. At the same time, ensemble learning has also been
proposed to mitigate privacy leakage in terms of membership inference (MI),
where the goal of an attacker is to infer whether a particular data sample has
been used to train a target model. In this paper, we show that these two goals
of ensemble learning, namely improving accuracy and privacy, directly conflict
with each other. Using a wide range of datasets and model architectures, we
empirically demonstrate the trade-off between privacy and accuracy in deep
ensemble learning. We find that ensembling can improve either privacy or
accuracy, but not both simultaneously -- when ensembling improves the
classification accuracy, the effectiveness of the MI attack also increases. We
analyze various factors that contribute to such privacy leakage in ensembling
such as prediction confidence and agreement between models that constitute the
ensemble. Our evaluation of defenses against MI attacks, such as regularization
and differential privacy, shows that they can mitigate the effectiveness of the
MI attack but simultaneously degrade ensemble accuracy. The source code is
available at https://github.com/shrezaei/MI-on-EL.
- Abstract(参考訳): ディープアンサンブル学習は、複数のニューラルネットワークをトレーニングし、出力を融合することで、分類精度を向上させることを目的としている。
精度を向上させることが広く示されている。
同時に、アンサンブル学習は、特定のデータサンプルを使用してターゲットモデルをトレーニングしたかどうかを攻撃者の目標とする、メンバーシップ推論(MI)の観点からプライバシー漏洩を軽減するためにも提案されている。
本稿では,これらの2つの学習目標,すなわち精度とプライバシを改善し,相互に直接衝突することを示す。
幅広いデータセットとモデルアーキテクチャを用いて、深いアンサンブル学習におけるプライバシと精度のトレードオフを実証的に実証する。
アンサンブルは、プライバシまたは正確性の両方を改善することができるが、同時にはならない。アンサンブルが分類精度を改善すると、MI攻撃の有効性も向上する。
本研究は,アンサンブルを構成するモデル間の予測信頼度や合意など,センセンシングにおけるプライバシリークに寄与するさまざまな要因を分析した。
正規化や差分プライバシーなどのMI攻撃に対する防御効果の評価は,MI攻撃の有効性を軽減できるが,同時にアンサンブルの精度を低下させることができることを示す。
ソースコードはhttps://github.com/shrezaei/mi-on-elで入手できる。
関連論文リスト
- Overconfidence is a Dangerous Thing: Mitigating Membership Inference
Attacks by Enforcing Less Confident Prediction [2.2336243882030025]
機械学習モデルは、メンバシップ推論攻撃(MIA)に対して脆弱である
この研究は、強力なメンバーシップのプライバシと高い精度の両方を、余分なデータを必要とすることなく達成できる防衛技術であるHAMPを提案する。
論文 参考訳(メタデータ) (2023-07-04T09:50:33Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Enhanced Membership Inference Attacks against Machine Learning Models [9.26208227402571]
メンバーシップ推論攻撃は、モデルがトレーニングセット内の個々のデータポイントについてリークする個人情報の定量化に使用される。
我々は,AUCスコアを高い精度で達成できる新たな攻撃アルゴリズムを導き,その性能に影響を及ぼすさまざまな要因を強調した。
我々のアルゴリズムは、モデルにおけるプライバシ損失の極めて正確な近似を捉え、機械学習モデルにおけるプライバシリスクの正確かつ詳細な推定を行うためのツールとして使用することができる。
論文 参考訳(メタデータ) (2021-11-18T13:31:22Z) - Do Not Trust Prediction Scores for Membership Inference Attacks [15.567057178736402]
メンバーシップ推論攻撃(MIA)は、特定のサンプルが予測モデルのトレーニングに使用されたかどうかを判断することを目的としている。
これは、多くの現代のディープネットワークアーキテクチャにとって誤りである、と我々は主張する。
トレーニングデータの一部として誤って分類された、潜在的に無限のサンプルを生成できるのです。
論文 参考訳(メタデータ) (2021-11-17T12:39:04Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z) - DICE: Diversity in Deep Ensembles via Conditional Redundancy Adversarial
Estimation [109.11580756757611]
メンバー間の多様性のおかげで、ディープアンサンブルは単一のネットワークよりもパフォーマンスが良い。
最近のアプローチでは、多様性を高めるための予測を規則化していますが、個々のメンバーのパフォーマンスも大幅に減少します。
DICEと呼ばれる新しいトレーニング基準を導入し、特徴間の素早い相関を減らして多様性を高める。
論文 参考訳(メタデータ) (2021-01-14T10:53:26Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z) - Membership Inference Attacks and Defenses in Classification Models [19.498313593713043]
分類器に対するMI攻撃について検討する。
我々は、MI攻撃に対するモデルの脆弱性が一般化ギャップと密接に関連していることを発見した。
トレーニング精度を意図的に低減し,ギャップを埋めることを目的としたMI攻撃に対する防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-27T12:35:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。