論文の概要: Hardness of Samples Is All You Need: Protecting Deep Learning Models
Using Hardness of Samples
- arxiv url: http://arxiv.org/abs/2106.11424v1
- Date: Mon, 21 Jun 2021 22:03:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 14:43:43.885212
- Title: Hardness of Samples Is All You Need: Protecting Deep Learning Models
Using Hardness of Samples
- Title(参考訳): サンプルの硬さ - サンプルの硬さを使ってディープラーニングモデルを保護する-
- Authors: Amir Mahdi Sadeghzadeh, Faezeh Dehghan, Amir Mohammad Sobhanian, and
Rasool Jalili
- Abstract要約: モデル抽出攻撃の硬度度は, 正常試料の硬度度と区別可能であることを示す。
本稿では,モデル抽出攻撃のサンプルシーケンスを検出するために,Hardness-Oriented Detection Approach (HODA)を提案する。
- 参考スコア(独自算出の注目度): 1.2074552857379273
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Several recent studies have shown that Deep Neural Network (DNN)-based
classifiers are vulnerable against model extraction attacks. In model
extraction attacks, an adversary exploits the target classifier to create a
surrogate classifier imitating the target classifier with respect to some
criteria. In this paper, we investigate the hardness degree of samples and
demonstrate that the hardness degree histogram of model extraction attacks
samples is distinguishable from the hardness degree histogram of normal
samples. Normal samples come from the target classifier's training data
distribution. As the training process of DNN-based classifiers is done in
several epochs, we can consider this process as a sequence of subclassifiers so
that each subclassifier is created at the end of an epoch. We use the sequence
of subclassifiers to calculate the hardness degree of samples. We investigate
the relation between hardness degree of samples and the trust in the classifier
outputs. We propose Hardness-Oriented Detection Approach (HODA) to detect the
sample sequences of model extraction attacks. The results demonstrate that HODA
can detect the sample sequences of model extraction attacks with a high success
rate by only watching 100 attack samples. We also investigate the hardness
degree of adversarial examples and indicate that the hardness degree histogram
of adversarial examples is distinct from the hardness degree histogram of
normal samples.
- Abstract(参考訳): 近年の研究では、ディープニューラルネットワーク(DNN)ベースの分類器がモデル抽出攻撃に対して脆弱であることが示されている。
モデル抽出攻撃において、敵はターゲット分類器を利用して、いくつかの基準に関してターゲット分類器を模倣する代理分類器を作成する。
本稿では,試料の硬さ度を調査し,モデル抽出攻撃試料の硬さ度ヒストグラムと正常試料の硬さ度ヒストグラムとを区別できることを示す。
通常のサンプルは、ターゲット分類器のトレーニングデータ分布から来る。
DNNに基づく分類器の訓練プロセスはいくつかのエポックで行われているので、この過程をサブクラス化器のシーケンスと見なすことができ、各サブクラス化器はエポックの最後に生成される。
サンプルの硬度度を計算するためにサブ分類器のシーケンスを用いる。
サンプルの硬度度と分類器出力の信頼度の関係について検討する。
本稿では,モデル抽出攻撃のサンプルシーケンスを検出するために,Hardness-Oriented Detection Approach (HODA)を提案する。
その結果, HODAは, 100個の攻撃サンプルを見るだけで, モデル抽出攻撃のサンプルシーケンスを高い成功率で検出できることがわかった。
また, 対向例の硬度度を調べた結果, 対向例の硬度ヒストグラムが正常試料の硬度ヒストグラムとは異なることが明らかとなった。
関連論文リスト
- How Low Can You Go? Surfacing Prototypical In-Distribution Samples for Unsupervised Anomaly Detection [48.30283806131551]
非常に少ないトレーニングサンプルを持つUADが、トレーニングデータセット全体のトレーニングパフォーマンスにすでに一致している - そして、場合によっては、それを超えることもある、ということが、私たちは示しています。
そこで本研究では,UAD性能をさらに向上させるために,原型標本を確実に同定するための教師なし手法を提案する。
論文 参考訳(メタデータ) (2023-12-06T15:30:47Z) - VAESim: A probabilistic approach for self-supervised prototype discovery [0.23624125155742057]
条件付き変分オートエンコーダに基づく画像階層化アーキテクチャを提案する。
我々は、連続した潜伏空間を用いて障害の連続を表現し、訓練中にクラスターを見つけ、画像/患者の成層に使用することができる。
本手法は,標準VAEに対して,分類タスクで測定されたkNN精度において,ベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-09-25T17:55:31Z) - DiscrimLoss: A Universal Loss for Hard Samples and Incorrect Samples
Discrimination [28.599571524763785]
ラベルノイズ(すなわち不正なデータ)が与えられた場合、ディープニューラルネットワークはラベルノイズとモデル性能を徐々に記憶する。
この問題を解消するために,カリキュラム学習を提案し,学習サンプルを有意義な順序で順序付けすることで,モデル性能と一般化を向上させる。
論文 参考訳(メタデータ) (2022-08-21T13:38:55Z) - Understanding, Detecting, and Separating Out-of-Distribution Samples and
Adversarial Samples in Text Classification [80.81532239566992]
本稿では,2種類の異常 (OOD と Adv のサンプル) と,3つの側面の内分布 (ID) を比較した。
OODサンプルは第1層から始まる収差を露呈するが,Advサンプルの異常はモデル深層まで出現しない。
隠れ表現と出力確率を用いて,ID,OOD,Advのサンプルを分離する簡単な手法を提案する。
論文 参考訳(メタデータ) (2022-04-09T12:11:59Z) - Boost Test-Time Performance with Closed-Loop Inference [85.43516360332646]
そこで本研究では,モデル性能を高めるために,ループ方式でハードクラス化試験サンプルを予測することを提案する。
まず、追加の推論ループを必要とするハードクラス化テストサンプルを識別するためにフィルタリング基準を考案する。
各ハードサンプルに対して、モデルのキャリブレーションを行うために、元の上位$K$予測に基づいて補助学習タスクを構築する。
論文 参考訳(メタデータ) (2022-03-21T10:20:21Z) - Density-Based Dynamic Curriculum Learning for Intent Detection [14.653917644725427]
本モデルでは, 固有ベクトル密度に応じてサンプルの難易度を定義する。
様々な難易度のサンプルに注意を払う動的カリキュラム学習戦略を適用した。
3つのオープンデータセットの実験により、提案した密度に基づくアルゴリズムが、単純かつ複雑なサンプルを著しく区別できることが確認された。
論文 参考訳(メタデータ) (2021-08-24T12:29:26Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - One for More: Selecting Generalizable Samples for Generalizable ReID
Model [92.40951770273972]
本稿では,選択したサンプルを損失関数として一般化する1対3の学習目標を提案する。
提案した1対3のサンプルは,ReIDトレーニングフレームワークにシームレスに統合できる。
論文 参考訳(メタデータ) (2020-12-10T06:37:09Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。