論文の概要: Reconstruction-Based Membership Inference Attacks are Easier on
Difficult Problems
- arxiv url: http://arxiv.org/abs/2102.07762v1
- Date: Mon, 15 Feb 2021 18:57:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 15:17:27.432322
- Title: Reconstruction-Based Membership Inference Attacks are Easier on
Difficult Problems
- Title(参考訳): 難易度問題に対する再構成型メンバーシップ推論攻撃の有用性
- Authors: Avital Shafran, Shmuel Peleg, Yedid Hoshen
- Abstract要約: 高次元の入力と出力を持つモデルは、メンバーシップ推論攻撃に対してより脆弱であることを示す。
本稿では,各サンプルに対して計算可能な新しい予測可能性スコアを提案し,その計算はトレーニングセットを必要としない。
再構成誤差から予測可能性スコアを減算して得られた会員誤差は,多数のベンチマークにおいて高いMIA精度が得られることを示す。
- 参考スコア(独自算出の注目度): 36.13835940345486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Membership inference attacks (MIA) try to detect if data samples were used to
train a neural network model, e.g. to detect copyright abuses. We show that
models with higher dimensional input and output are more vulnerable to MIA, and
address in more detail models for image translation and semantic segmentation.
We show that reconstruction-errors can lead to very effective MIA attacks as
they are indicative of memorization. Unfortunately, reconstruction error alone
is less effective at discriminating between non-predictable images used in
training and easy to predict images that were never seen before. To overcome
this, we propose using a novel predictability score that can be computed for
each sample, and its computation does not require a training set. Our
membership error, obtained by subtracting the predictability score from the
reconstruction error, is shown to achieve high MIA accuracy on an extensive
number of benchmarks.
- Abstract(参考訳): メンバーシップ推論攻撃(MIA)は、データサンプルがニューラルネットワークモデルのトレーニングに使用されたかどうかを検出する。
著作権侵害を検知します
高次元の入力と出力を持つモデルはMIAに対してより脆弱であり、画像翻訳とセマンティックセグメンテーションのためのより詳細なモデルに対処できることを示した。
我々は,再建エラーが,記憶の指標として非常に効果的なMIA攻撃につながることを示した。
残念ながら、復元エラーだけでは、トレーニングに使用される予測不可能な画像の識別が難しく、これまでに見たことのない画像の予測が容易です。
そこで本研究では,各試料に対して計算可能な新たな予測可能性スコアを用いて,トレーニングセットを必要としない計算を提案する。
再構成誤差から予測可能性スコアを減算して得られた会員誤差は,多数のベンチマークにおいて高いMIA精度が得られることを示す。
関連論文リスト
- Effort: Efficient Orthogonal Modeling for Generalizable AI-Generated Image Detection [66.16595174895802]
既存のAI生成画像(AIGI)検出手法は、しばしば限定的な一般化性能に悩まされる。
本稿では、AIGI検出において、これまで見過ごされてきた重要な非対称性現象を同定する。
論文 参考訳(メタデータ) (2024-11-23T19:10:32Z) - Is Difficulty Calibration All We Need? Towards More Practical Membership Inference Attacks [16.064233621959538]
我々は,textbfRe-levertextbfA を直接 textbfRe-levertextbfA を用いて mtextbfItigate the error in textbfDifficulty calibration を提案する。
論文 参考訳(メタデータ) (2024-08-31T11:59:42Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Membership Inference Attacks on Diffusion Models via Quantile Regression [30.30033625685376]
我々は,家族関係推論(MI)攻撃による拡散モデルのプライバシー上の脆弱性を実証する。
提案したMI攻撃は、トレーニングに使用されていない例における再構成損失の分布を予測(定量化)する量子レグレッションモデルを学習する。
我々の攻撃は従来の最先端攻撃よりも優れており、計算コストは著しく低い。
論文 参考訳(メタデータ) (2023-12-08T16:21:24Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Reconstructing Training Data with Informed Adversaries [30.138217209991826]
機械学習モデルへのアクセスを考えると、敵はモデルのトレーニングデータを再構築できるだろうか?
本研究は、この疑問を、学習データポイントの全てを知っている強力な情報提供者のレンズから研究する。
この厳密な脅威モデルにおいて、残りのデータポイントを再構築することは可能であることを示す。
論文 参考訳(メタデータ) (2022-01-13T09:19:25Z) - Divide-and-Assemble: Learning Block-wise Memory for Unsupervised Anomaly
Detection [40.778313918994996]
再構成に基づく手法は、画像の教師なし異常検出において重要な役割を果たす。
本研究では,画像の再構成を分割組立手順として解釈する。
我々は、挑戦的なMVTec ADデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-07-28T01:14:32Z) - CutPaste: Self-Supervised Learning for Anomaly Detection and
Localization [59.719925639875036]
通常のトレーニングデータのみを用いて異常検知器を構築するためのフレームワークを提案する。
まず、自己教師付き深層表現を学習し、学習した表現の上に生成的1クラス分類器を構築する。
MVTec異常検出データセットに関する実証研究は,提案アルゴリズムが実世界の様々な欠陥を検出可能であることを実証している。
論文 参考訳(メタデータ) (2021-04-08T19:04:55Z) - Adversarial Examples for Unsupervised Machine Learning Models [71.81480647638529]
回避予測を引き起こすアドリラルな例は、機械学習モデルの堅牢性を評価し改善するために広く利用されている。
教師なしモデルに対する逆例生成の枠組みを提案し,データ拡張への新たな応用を実証する。
論文 参考訳(メタデータ) (2021-03-02T17:47:58Z) - Salvage Reusable Samples from Noisy Data for Robust Learning [70.48919625304]
本稿では,Web画像を用いた深部FGモデルのトレーニングにおいて,ラベルノイズに対処するための再利用可能なサンプル選択と修正手法を提案する。
私たちのキーとなるアイデアは、再利用可能なサンプルの追加と修正を行い、それらをクリーンな例とともに活用してネットワークを更新することです。
論文 参考訳(メタデータ) (2020-08-06T02:07:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。