論文の概要: Inferring Class Label Distribution of Training Data from Classifiers: An
Accuracy-Augmented Meta-Classifier Attack
- arxiv url: http://arxiv.org/abs/2211.04157v1
- Date: Tue, 8 Nov 2022 10:54:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 15:43:48.791040
- Title: Inferring Class Label Distribution of Training Data from Classifiers: An
Accuracy-Augmented Meta-Classifier Attack
- Title(参考訳): 分類器からの学習データのクラスラベル分布推定:精度向上したメタ分類器攻撃
- Authors: Raksha Ramakrishna and Gy\"orgy D\'an
- Abstract要約: 機械学習(ML)モデルに対するプロパティ推論攻撃は、モデルの主要なタスクとは無関係なトレーニングデータの特性を推測することを目的としている。
本稿では,文学における二項決定問題とは異なり,学習データのクラスラベル分布を推定することを目的とした,新たなタイプのプロパティ推論攻撃を提案する。
- 参考スコア(独自算出の注目度): 2.741266294612776
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Property inference attacks against machine learning (ML) models aim to infer
properties of the training data that are unrelated to the primary task of the
model, and have so far been formulated as binary decision problems, i.e.,
whether or not the training data have a certain property. However, in
industrial and healthcare applications, the proportion of labels in the
training data is quite often also considered sensitive information. In this
paper we introduce a new type of property inference attack that unlike binary
decision problems in literature, aim at inferring the class label distribution
of the training data from parameters of ML classifier models. We propose a
method based on \emph{shadow training} and a \emph{meta-classifier} trained on
the parameters of the shadow classifiers augmented with the accuracy of the
classifiers on auxiliary data. We evaluate the proposed approach for ML
classifiers with fully connected neural network architectures. We find that the
proposed \emph{meta-classifier} attack provides a maximum relative improvement
of $52\%$ over state of the art.
- Abstract(参考訳): 機械学習(ML)モデルに対するプロパティ推論攻撃は、モデルの主要なタスクとは無関係なトレーニングデータの特性を推測することを目的としており、これまではバイナリ決定問題として定式化されてきた。
しかしながら、産業や医療の分野では、トレーニングデータ中のラベルの割合は、しばしばセンシティブな情報と見なされる。
本稿では,ml分類モデルのパラメータから学習データのクラスラベル分布を推測することを目的とした,文献における二項決定問題とは異なり,新たな特性推論攻撃を提案する。
本稿では,補助データに基づく分類器の精度を付加したシャドウ分類器のパラメータに基づいて訓練した<emph{shadow training} と \emph{meta-classifier} に基づく手法を提案する。
完全に接続されたニューラルネットワークアーキテクチャを持つML分類器に対する提案手法を評価する。
提案した \emph{meta-classifier} 攻撃は,最先端技術に対して最大 52\% の相対的改善を提供する。
関連論文リスト
- A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - Alpaca against Vicuna: Using LLMs to Uncover Memorization of LLMs [61.04246774006429]
本稿では,攻撃者によるLSMエージェントを用いたブラックボックスプロンプト最適化手法を提案する。
ベースラインプレフィックス・サフィックス測定と比較すると,命令ベースのプロンプトは,トレーニングデータと23.7%のオーバラップで出力を生成する。
以上の結果から,命令調整モデルでは,ベースモデルと同等に事前学習データを公開することが可能であり,他のLSMが提案する命令を用いることで,新たな自動攻撃の道を開くことが可能であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T19:32:01Z) - Informative regularization for a multi-layer perceptron RR Lyrae
classifier under data shift [3.303002683812084]
本稿では,情報正規化とアドホックなトレーニング手法に基づくスケーラブルで容易に適応可能なアプローチを提案し,シフト問題を緩和する。
提案手法は,特徴量からの知識をニューラルネットワークに組み込むことで,基礎となるデータシフト問題を管理する。
論文 参考訳(メタデータ) (2023-03-12T02:49:19Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Mutual Information Learned Classifiers: an Information-theoretic
Viewpoint of Training Deep Learning Classification Systems [9.660129425150926]
クロスエントロピー損失は、重度のオーバーフィッティング動作を示すモデルを見つけるのに容易である。
本稿では,既存のDNN分類器のクロスエントロピー損失最小化が,基礎となるデータ分布の条件エントロピーを本質的に学習することを証明する。
ラベルと入力の相互情報を学習することで、DNN分類器を訓練する相互情報学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-03T15:09:19Z) - Lightweight Conditional Model Extrapolation for Streaming Data under
Class-Prior Shift [27.806085423595334]
非定常ストリーミングデータを用いて学習する新しい方法であるLIMESを紹介する。
我々は、特定のデータ分布に対する特定の分類器を導出するモデルパラメータの集合を1つ学習する。
Twitterデータを用いた一連の模範的なタスクの実験では、LIMESが代替手法よりも高い精度を達成することが示された。
論文 参考訳(メタデータ) (2022-06-10T15:19:52Z) - Robust Neural Network Classification via Double Regularization [2.41710192205034]
本稿では、分類モデルの複雑さに対するペナルティと、学習観察の最適な再重み付けを組み合わせた、ニューラルネットワークトレーニング損失の新しい二重正則化を提案する。
我々は, (i) MNIST と (ii) CIFAR-10 のニューラルネット分類のための DRFit について, 両者の相違点について実証した。
論文 参考訳(メタデータ) (2021-12-15T13:19:20Z) - Attentive Prototypes for Source-free Unsupervised Domain Adaptive 3D
Object Detection [85.11649974840758]
3Dオブジェクト検出ネットワークは、トレーニングされたデータに対してバイアスを受ける傾向がある。
そこで本研究では,ライダーを用いた3次元物体検出器のソースレス・教師なし領域適応のための単一フレーム手法を提案する。
論文 参考訳(メタデータ) (2021-11-30T18:42:42Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Robustness to Spurious Correlations in Text Classification via
Automatically Generated Counterfactuals [8.827892752465958]
自動生成された反実データを用いてトレーニングデータを増強し、堅牢なテキスト分類器のトレーニングを提案する。
因果的特徴を強調し,非因果的特徴を強調することで,ロバスト分類器は有意義で信頼性の高い予測を行うことを示す。
論文 参考訳(メタデータ) (2020-12-18T03:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。