論文の概要: Distribution inference risks: Identifying and mitigating sources of
leakage
- arxiv url: http://arxiv.org/abs/2209.08541v1
- Date: Sun, 18 Sep 2022 11:45:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 20:07:17.127757
- Title: Distribution inference risks: Identifying and mitigating sources of
leakage
- Title(参考訳): 分布推定リスク:漏れ源の特定と緩和
- Authors: Valentin Hartmann, L\'eo Meynent, Maxime Peyrard, Dimitrios
Dimitriadis, Shruti Tople, Robert West
- Abstract要約: 分散推論(またはプロパティ推論)攻撃による漏洩が注目されている。
この攻撃において、敵の目標は、トレーニングデータに関する分布情報を推測することである。
理論的および実験的に、敵が分散推論攻撃を連続的に行うことができる情報漏洩源を解析する。
- 参考スコア(独自算出の注目度): 42.1976069096515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A large body of work shows that machine learning (ML) models can leak
sensitive or confidential information about their training data. Recently,
leakage due to distribution inference (or property inference) attacks is
gaining attention. In this attack, the goal of an adversary is to infer
distributional information about the training data. So far, research on
distribution inference has focused on demonstrating successful attacks, with
little attention given to identifying the potential causes of the leakage and
to proposing mitigations. To bridge this gap, as our main contribution, we
theoretically and empirically analyze the sources of information leakage that
allows an adversary to perpetrate distribution inference attacks. We identify
three sources of leakage: (1) memorizing specific information about the
$\mathbb{E}[Y|X]$ (expected label given the feature values) of interest to the
adversary, (2) wrong inductive bias of the model, and (3) finiteness of the
training data. Next, based on our analysis, we propose principled mitigation
techniques against distribution inference attacks. Specifically, we demonstrate
that causal learning techniques are more resilient to a particular type of
distribution inference risk termed distributional membership inference than
associative learning methods. And lastly, we present a formalization of
distribution inference that allows for reasoning about more general adversaries
than was previously possible.
- Abstract(参考訳): 機械学習(ML)モデルは、トレーニングデータに関する機密情報や機密情報を漏洩させる可能性がある。
近年,分散推論(あるいはプロパティ推論)攻撃による漏洩が注目されている。
この攻撃において、敵の目標は、トレーニングデータに関する分布情報を推測することである。
今のところ、分布推論の研究は、リークの潜在的な原因を特定し、緩和策を提案することにほとんど注意を払わず、攻撃の成功の実証に焦点を当てている。
このギャップを埋めるために、我々の主な貢献として、敵が分散推論攻撃を繰り返すことを可能にする情報漏洩源を理論的かつ実証的に分析する。
漏洩の原因として,(1)敵に対して興味のある$\mathbb{e}[y|x]$(特徴値が与える期待ラベル),(2)モデルの誤帰納バイアス,(3)トレーニングデータの有限性,の3つを同定した。
次に,本分析に基づき,分散推論攻撃に対する原理的緩和手法を提案する。
具体的には、因果学習手法は、連想学習法よりも、特定の種類の分布推定リスクに対してより耐性があることを実証する。
最後に,これまでに可能であった以上の一般敵の推論を可能にする分布推論の形式化を提案する。
関連論文リスト
- Extracting Training Data from Unconditional Diffusion Models [76.85077961718875]
拡散確率モデル(DPM)は、生成人工知能(AI)の主流モデルとして採用されている。
本研究の目的は,1) 理論解析のための記憶量,2) 情報ラベルとランダムラベルを用いた条件記憶量,3) 記憶量測定のための2つのより良い評価指標を用いて,DPMにおける記憶量の理論的理解を確立することである。
提案手法は,理論解析に基づいて,SIDE (textbfSurrogate condItional Data extract) と呼ばれる新しいデータ抽出手法を提案する。
論文 参考訳(メタデータ) (2024-06-18T16:20:12Z) - Exploring Privacy and Fairness Risks in Sharing Diffusion Models: An
Adversarial Perspective [31.010937126289953]
我々は,拡散モデルの共有に伴う潜在的なプライバシーと公平性リスクについて,敵対的な視点で検討する。
提案手法は,受信機の下流モデルに悪影響を及ぼすために,フェアネス中毒攻撃を実施できることを実証する。
実世界のデータセットで行った実験は、異なる種類の拡散モデルに対して顕著な攻撃性能を示す。
論文 参考訳(メタデータ) (2024-02-28T12:21:12Z) - Fundamental Limits of Membership Inference Attacks on Machine Learning Models [29.367087890055995]
メンバーシップ推論攻撃(MIA)は、特定のデータポイントがトレーニングデータセットの一部であったかどうかを明らかにすることができる。
本稿では、機械学習モデルにおけるMIAに関する基本的な統計的制限を探索することによって理論的保証を提供する。
論文 参考訳(メタデータ) (2023-10-20T19:32:54Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - Formalizing and Estimating Distribution Inference Risks [11.650381752104298]
プロパティ推論攻撃の形式的および一般的な定義を提案する。
以上の結果から,安価なメタクラス化攻撃は高価なメタクラス化攻撃と同じくらい効果的であることが示唆された。
我々は、最先端のプロパティ推論攻撃を畳み込みニューラルネットワークに拡張する。
論文 参考訳(メタデータ) (2021-09-13T14:54:39Z) - Adversarial Robustness through the Lens of Causality [105.51753064807014]
ディープニューラルネットワークの敵対的脆弱性は、機械学習において大きな注目を集めている。
我々は、因果関係を敵対的脆弱性の軽減に組み込むことを提案する。
我々の手法は、敵の脆弱性を緩和するために因果性を利用する最初の試みと見なすことができる。
論文 参考訳(メタデータ) (2021-06-11T06:55:02Z) - Formalizing Distribution Inference Risks [11.650381752104298]
プロパティ推論攻撃は、統計機械学習の主な目的と区別することが難しい。
プロパティ推論攻撃の形式的で汎用的な定義を提案する。
論文 参考訳(メタデータ) (2021-06-07T15:10:06Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。