論文の概要: Estimating g-Leakage via Machine Learning
- arxiv url: http://arxiv.org/abs/2005.04399v3
- Date: Wed, 24 Nov 2021 22:05:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 06:42:07.541040
- Title: Estimating g-Leakage via Machine Learning
- Title(参考訳): 機械学習によるg-Leakageの推定
- Authors: Marco Romanelli and Konstantinos Chatzikokolakis and Catuscia
Palamidessi and Pablo Piantanida
- Abstract要約: 本稿では,ブラックボックスシナリオにおけるシステムの情報漏洩を推定する問題について考察する。
システムの内部は学習者にとって未知であり、分析するには複雑すぎると仮定される。
機械学習(ML)アルゴリズムを用いて,g-vulnerabilityをブラックボックスで推定する手法を提案する。
- 参考スコア(独自算出の注目度): 34.102705643128004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper considers the problem of estimating the information leakage of a
system in the black-box scenario. It is assumed that the system's internals are
unknown to the learner, or anyway too complicated to analyze, and the only
available information are pairs of input-output data samples, possibly obtained
by submitting queries to the system or provided by a third party. Previous
research has mainly focused on counting the frequencies to estimate the
input-output conditional probabilities (referred to as frequentist approach),
however this method is not accurate when the domain of possible outputs is
large. To overcome this difficulty, the estimation of the Bayes error of the
ideal classifier was recently investigated using Machine Learning (ML) models
and it has been shown to be more accurate thanks to the ability of those models
to learn the input-output correspondence. However, the Bayes vulnerability is
only suitable to describe one-try attacks. A more general and flexible measure
of leakage is the g-vulnerability, which encompasses several different types of
adversaries, with different goals and capabilities. In this paper, we propose a
novel approach to perform black-box estimation of the g-vulnerability using ML.
A feature of our approach is that it does not require to estimate the
conditional probabilities, and that it is suitable for a large class of ML
algorithms. First, we formally show the learnability for all data
distributions. Then, we evaluate the performance via various experiments using
k-Nearest Neighbors and Neural Networks. Our results outperform the frequentist
approach when the observables domain is large.
- Abstract(参考訳): 本稿では,ブラックボックスシナリオにおけるシステムの情報漏洩を推定する問題を考察する。
システムの内部は学習者には知られていないか、分析するには複雑すぎると仮定され、利用可能な情報は入力出力データサンプルのペアのみであり、おそらくはクエリをシステムに送信するか、あるいは第三者によって提供される。
これまでの研究は主に入出力条件の確率を推定するための周波数を計測することに焦点を当ててきたが、この方法は可能な出力領域が大きい場合には正確ではない。
この難しさを克服するため,近年,機械学習(ML)モデルを用いて理想的な分類器のベイズ誤差を推定し,それらのモデルが入力出力対応を学習できることから,より正確であることが示されている。
しかし、ベイズ脆弱性は1回の攻撃を記述するのにしか適していない。
より汎用的で柔軟なリーク尺度はg-vulnerabilityであり、異なる目標と能力を持ついくつかの異なる種類の敵を含んでいる。
本稿では,ML を用いた g-vulnerability のブラックボックス推定手法を提案する。
提案手法の特徴は,条件付き確率を推定する必要がなく,MLアルゴリズムの大規模クラスに適していることである。
まず,すべてのデータ分布の学習可能性を示す。
そこで我々は,k-Nearest NeighborsとNeural Networksを用いて,様々な実験による性能評価を行った。
私たちの結果はobservablesドメインが大きい場合、頻繁なアプローチよりも優れています。
関連論文リスト
- Estimating Uncertainty with Implicit Quantile Network [0.0]
不確かさの定量化は多くの性能クリティカルなアプリケーションにおいて重要な部分である。
本稿では,アンサンブル学習やベイズニューラルネットワークなど,既存のアプローチに対する簡単な代替手段を提供する。
論文 参考訳(メタデータ) (2024-08-26T13:33:14Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Do Bayesian Variational Autoencoders Know What They Don't Know? [0.6091702876917279]
OoD(Out-of-Distribution)入力を検出する問題は、ディープニューラルネットワークにとって最重要課題である。
入力の密度を推定できる深部生成モデルでさえ、信頼できない可能性があることが以前に示されている。
本稿では,マルコフ連鎖モンテカルロ,バックプロパゲーションによるベイズ勾配,およびウェイト平均ガウスの3つの推論手法について検討する。
論文 参考訳(メタデータ) (2022-12-29T11:48:01Z) - Transformers Can Do Bayesian Inference [56.99390658880008]
我々はPFN(Presideed Data Fitted Networks)を提案する。
PFNは、大規模機械学習技術におけるインコンテキスト学習を活用して、大規模な後部集合を近似する。
我々は、PFNがガウス過程をほぼ完璧に模倣し、難解問題に対する効率的なベイズ推定を可能にすることを示した。
論文 参考訳(メタデータ) (2021-12-20T13:07:39Z) - The information of attribute uncertainties: what convolutional neural
networks can learn about errors in input data [0.0]
我々は、畳み込みニューラルネットワーク(CNN)が、信号と雑音のコンテキストとパターンについて、どのように学習できるかを示す。
それぞれのデータポイントがノイズのレベルが異なる場合、CNNが学習できることが示される。
論文 参考訳(メタデータ) (2021-08-10T15:10:46Z) - A Gentle Introduction to Conformal Prediction and Distribution-Free
Uncertainty Quantification [1.90365714903665]
このハンズオン導入は、配布不要なUQの実践的な実装に関心のある読者を対象としている。
PyTorch構文で、Pythonで説明的なイラストやサンプル、コードサンプルを多数含みます。
論文 参考訳(メタデータ) (2021-07-15T17:59:50Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z) - Multi-class Gaussian Process Classification with Noisy Inputs [2.362412515574206]
いくつかの状況では、騒音の量は事前に知ることができる。
提案手法を,合成データと実データを含むいくつかの実験により評価した。
論文 参考訳(メタデータ) (2020-01-28T18:55:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。