論文の概要: Membership Inference Attacks and Generalization: A Causal Perspective
- arxiv url: http://arxiv.org/abs/2209.08615v1
- Date: Sun, 18 Sep 2022 17:31:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 17:09:50.859622
- Title: Membership Inference Attacks and Generalization: A Causal Perspective
- Title(参考訳): 会員推論攻撃と一般化:因果的視点
- Authors: Teodora Baluta and Shiqi Shen and S. Hitarth and Shruti Tople and
Prateek Saxena
- Abstract要約: メンバーシップ推論(MI)攻撃は、ニューラルネットワークの現在のトレーニング方法において、プライバシの弱点を浮き彫りにする。
原理的因果推論に基づくMI攻撃とその一般化への関連性を説明するための最初のアプローチを提案する。
- 参考スコア(独自算出の注目度): 20.150503790249616
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Membership inference (MI) attacks highlight a privacy weakness in present
stochastic training methods for neural networks. It is not well understood,
however, why they arise. Are they a natural consequence of imperfect
generalization only? Which underlying causes should we address during training
to mitigate these attacks? Towards answering such questions, we propose the
first approach to explain MI attacks and their connection to generalization
based on principled causal reasoning. We offer causal graphs that
quantitatively explain the observed MI attack performance achieved for $6$
attack variants. We refute several prior non-quantitative hypotheses that
over-simplify or over-estimate the influence of underlying causes, thereby
failing to capture the complex interplay between several factors. Our causal
models also show a new connection between generalization and MI attacks via
their shared causal factors. Our causal models have high predictive power
($0.90$), i.e., their analytical predictions match with observations in unseen
experiments often, which makes analysis via them a pragmatic alternative.
- Abstract(参考訳): メンバーシップ推論(MI)攻撃は、現在のニューラルネットワークの確率的トレーニング方法におけるプライバシーの弱点を浮き彫りにする。
しかし、なぜそれが生じたのかはよく分かっていない。
これらは不完全な一般化の自然な結果か?
これらの攻撃を軽減するためにトレーニング中に対処すべき根本原因は何か?
そこで本研究では,mi攻撃と一般化との関連を説明する最初のアプローチを提案する。
我々は6ドルで達成されたMI攻撃性能を定量的に説明する因果グラフを提供する。
我々は、根本原因の影響を過度に単純化または過大評価し、その結果、いくつかの要因間の複雑な相互作用を捉えることができないという、以前の非定量的仮説に反論する。
我々の因果モデルはまた、それらの共用因果因子を介して、一般化とMI攻撃の新たな関係を示す。
我々の因果関係モデルは高い予測力(0.90$)、すなわち、解析的予測は目に見えない実験でしばしば観測される結果と一致し、実際的な代替となる。
関連論文リスト
- Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Demystifying Causal Features on Adversarial Examples and Causal
Inoculation for Robust Network by Adversarial Instrumental Variable
Regression [32.727673706238086]
本稿では、因果的な観点から、敵の訓練を受けたネットワークにおける予期せぬ脆弱性を掘り下げる手法を提案する。
展開することで,不偏環境下での敵予測の因果関係を推定する。
その結果, 推定因果関係は, 正解率の正解率と高い相関関係があることが示唆された。
論文 参考訳(メタデータ) (2023-03-02T08:18:22Z) - Active Bayesian Causal Inference [72.70593653185078]
因果発見と推論を統合するための完全ベイズ能動学習フレームワークであるアクティブベイズ因果推論(ABCI)を提案する。
ABCIは因果関係のモデルと関心のクエリを共同で推論する。
我々のアプローチは、完全な因果グラフの学習のみに焦点を当てた、いくつかのベースラインよりも、よりデータ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-06-04T22:38:57Z) - Causal Forecasting:Generalization Bounds for Autoregressive Models [19.407531303870087]
本稿では,予測のための「因果学習理論」の枠組みを紹介する。
統計的リスクと因果リスクの違いを特徴付ける。
これは時系列設定における因果一般化の理論的保証を提供する最初の研究である。
論文 参考訳(メタデータ) (2021-11-18T17:56:20Z) - Adversarial Visual Robustness by Causal Intervention [56.766342028800445]
敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
論文 参考訳(メタデータ) (2021-06-17T14:23:54Z) - Adversarial Robustness through the Lens of Causality [105.51753064807014]
ディープニューラルネットワークの敵対的脆弱性は、機械学習において大きな注目を集めている。
我々は、因果関係を敵対的脆弱性の軽減に組み込むことを提案する。
我々の手法は、敵の脆弱性を緩和するために因果性を利用する最初の試みと見なすことができる。
論文 参考訳(メタデータ) (2021-06-11T06:55:02Z) - To do or not to do: finding causal relations in smart homes [2.064612766965483]
本稿では,環境と観測データの混合実験から因果モデルを学ぶための新しい手法を提案する。
我々の手法の核心は、選択された介入の使用であり、特に、介入が不可能な変数を考慮に入れた学習である。
本手法をスマートホームシミュレーション,すなわち因果関係を知ることが説明可能なシステムへの道を開くユースケースに応用する。
論文 参考訳(メタデータ) (2021-05-20T22:36:04Z) - ACRE: Abstract Causal REasoning Beyond Covariation [90.99059920286484]
因果誘導における現在の視覚システムの系統的評価のための抽象因果分析データセットについて紹介する。
Blicket実験における因果発見の研究の流れに触発され、独立シナリオと介入シナリオのいずれにおいても、以下の4種類の質問で視覚的推論システムに問い合わせる。
純粋なニューラルモデルは確率レベルのパフォーマンスの下で連想戦略に向かう傾向があるのに対し、ニューロシンボリックな組み合わせは後方ブロッキングの推論に苦しむ。
論文 参考訳(メタデータ) (2021-03-26T02:42:38Z) - Causal Expectation-Maximisation [70.45873402967297]
ポリツリーグラフを特徴とするモデルにおいても因果推論はNPハードであることを示す。
我々は因果EMアルゴリズムを導入し、分類的表現変数のデータから潜伏変数の不確かさを再構築する。
我々は、反事実境界が構造方程式の知識なしにしばしば計算できるというトレンドのアイデアには、目立たずの制限があるように思える。
論文 参考訳(メタデータ) (2020-11-04T10:25:13Z) - Verifying the Causes of Adversarial Examples [5.381050729919025]
ニューラルネットワークのロバスト性は、入力に対するほとんど知覚できない摂動を含む敵の例によって挑戦される。
本稿では,敵対的事例の潜在的な原因の収集と,慎重に設計された制御実験による検証(あるいは部分的に検証)を行う。
実験の結果, 幾何学的要因はより直接的な原因であり, 統計的要因は現象を増大させることが明らかとなった。
論文 参考訳(メタデータ) (2020-10-19T16:17:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。