論文の概要: Formalizing and Estimating Distribution Inference Risks
- arxiv url: http://arxiv.org/abs/2109.06024v1
- Date: Mon, 13 Sep 2021 14:54:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:57:10.995683
- Title: Formalizing and Estimating Distribution Inference Risks
- Title(参考訳): 分布予測リスクの形式化と推定
- Authors: Anshuman Suri and David Evans
- Abstract要約: プロパティ推論攻撃の形式的および一般的な定義を提案する。
以上の結果から,安価なメタクラス化攻撃は高価なメタクラス化攻撃と同じくらい効果的であることが示唆された。
我々は、最先端のプロパティ推論攻撃を畳み込みニューラルネットワークに拡張する。
- 参考スコア(独自算出の注目度): 11.650381752104298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Property inference attacks reveal statistical properties about a training set
but are difficult to distinguish from the intrinsic purpose of statistical
machine learning, namely to produce models that capture statistical properties
about a distribution. Motivated by Yeom et al.'s membership inference
framework, we propose a formal and general definition of property inference
attacks. The proposed notion describes attacks that can distinguish between
possible training distributions, extending beyond previous property inference
attacks that infer the ratio of a particular type of data in the training data
set such as the proportion of females. We show how our definition captures
previous property inference attacks as well as a new attack that can reveal the
average node degree or clustering coefficient of a training graph. Our
definition also enables a theorem that connects the maximum possible accuracy
of inference attacks distinguishing between distributions to the effective size
of dataset leaked by the model. To quantify and understand property inference
risks, we conduct a series of experiments across a range of different
distributions using both black-box and white-box attacks. Our results show that
inexpensive attacks are often as effective as expensive meta-classifier
attacks, and that there are surprising asymmetries in the effectiveness of
attacks. We also extend the state-of-the-art property inference attack to work
on convolutional neural networks, and propose techniques to help identify
parameters in a model that leak the most information, thus significantly
lowering resource requirements for meta-classifier attacks.
- Abstract(参考訳): プロパティ推論攻撃は、トレーニングセットに関する統計特性を明らかにするが、統計機械学習の本質的な目的、すなわち分布に関する統計特性をキャプチャするモデルを作成することとの区別が難しい。
Yeomらのメンバシップ推論フレームワークを動機として,プロパティ推論攻撃の形式的かつ一般的な定義を提案する。
提案する概念は、可能なトレーニング分布を区別できる攻撃を記述し、女性の比率のようなトレーニングデータセット内の特定のタイプのデータの割合を推測する以前のプロパティ推論攻撃を超えて拡張する。
我々の定義は、トレーニンググラフの平均ノード次数やクラスタリング係数を明らかにすることができる新しい攻撃と同様に、以前のプロパティ推論攻撃をキャプチャする方法を示す。
我々の定義では、分布を区別する推論攻撃の最大精度をモデルによってリークされたデータセットの有効サイズに結びつける定理も可能である。
特性推定リスクの定量化と理解のために,ブラックボックス攻撃とホワイトボックス攻撃の両方を用いて,異なる分布の一連の実験を行う。
その結果,安価なアタックは高価なメタクラス化アタックと同等の効果を示し,アタックの有効性には驚くべき非対称性があることがわかった。
また、畳み込みニューラルネットワークで作業するために最先端のプロパティ推論攻撃を拡張し、最も多くの情報を漏洩するモデルにおけるパラメータの識別を支援する手法を提案し、メタ分類器攻撃のリソース要求を著しく低減する。
関連論文リスト
- Indiscriminate Disruption of Conditional Inference on Multivariate Gaussians [60.22542847840578]
敵対的機械学習の進歩にもかかわらず、敵対者の存在下でのガウスモデルに対する推論は特に過小評価されている。
我々は,意思決定者の条件推論とその後の行動の妨害を希望する自己関心のある攻撃者について,一組の明らかな変数を乱すことで検討する。
検出を避けるため、攻撃者は、破損した証拠の密度によって可否が決定される場合に、攻撃が可否を示すことを望んでいる。
論文 参考訳(メタデータ) (2024-11-21T17:46:55Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Membership Inference Attacks against Language Models via Neighbourhood
Comparison [45.086816556309266]
メンバーシップ推論攻撃(MIA)は、機械学習モデルのトレーニングデータにデータサンプルが存在するかどうかを予測することを目的としている。
近年の研究では、類似データに基づいてトレーニングされた参照モデルとモデルスコアを比較した参照ベースの攻撃は、MIAの性能を大幅に向上することを示した。
より現実的なシナリオでそれらの性能を調査し、参照モデルのトレーニングに使用されるデータ分布に関して非常に脆弱であることを示す。
論文 参考訳(メタデータ) (2023-05-29T07:06:03Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Purifier: Defending Data Inference Attacks via Transforming Confidence
Scores [27.330482508047428]
そこで本研究では,PURIFIER(PURIFIER)を用いたメンバシップ推論攻撃に対する防御手法を提案する。
PURIFIERはメンバーシップ推論攻撃を高い効率と効率で防御する。
PURIFIERは、敵のモデル反転攻撃や属性推論攻撃の防御にも有効である。
論文 参考訳(メタデータ) (2022-12-01T16:09:50Z) - Enhanced Membership Inference Attacks against Machine Learning Models [9.26208227402571]
メンバーシップ推論攻撃は、モデルがトレーニングセット内の個々のデータポイントについてリークする個人情報の定量化に使用される。
我々は,AUCスコアを高い精度で達成できる新たな攻撃アルゴリズムを導き,その性能に影響を及ぼすさまざまな要因を強調した。
我々のアルゴリズムは、モデルにおけるプライバシ損失の極めて正確な近似を捉え、機械学習モデルにおけるプライバシリスクの正確かつ詳細な推定を行うためのツールとして使用することができる。
論文 参考訳(メタデータ) (2021-11-18T13:31:22Z) - Formalizing Distribution Inference Risks [11.650381752104298]
プロパティ推論攻撃は、統計機械学習の主な目的と区別することが難しい。
プロパティ推論攻撃の形式的で汎用的な定義を提案する。
論文 参考訳(メタデータ) (2021-06-07T15:10:06Z) - Property Inference Attacks on Convolutional Neural Networks: Influence
and Implications of Target Model's Complexity [1.2891210250935143]
プロパティ推論攻撃は、トレーニングデータセットに関する与えられたモデルプロパティをモデルの主な目標とは無関係に推測することを目的としている。
本稿では,ターゲットモデルの複雑性が攻撃の精度に及ぼす影響について検討する。
その結果,ターゲットモデルの複雑さとは無関係に,プライバシ侵害のリスクがあることが判明した。
論文 参考訳(メタデータ) (2021-04-27T09:19:36Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。