論文の概要: Hack The Box: Fooling Deep Learning Abstraction-Based Monitors
- arxiv url: http://arxiv.org/abs/2107.04764v1
- Date: Sat, 10 Jul 2021 05:06:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 09:06:10.598187
- Title: Hack The Box: Fooling Deep Learning Abstraction-Based Monitors
- Title(参考訳): 箱をハックする: ディープラーニングの抽象化に基づくモニタ
- Authors: Sara Hajj Ibrahim and Mohamed Nassar
- Abstract要約: ディープラーニングは、概念の深い階層に適応する機械学習の一種である。
本稿では,抽象的ノベルティ検出のケーススタディについて考察する。
敵のサンプルに対して頑健ではないことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning is a type of machine learning that adapts a deep hierarchy of
concepts. Deep learning classifiers link the most basic version of concepts at
the input layer to the most abstract version of concepts at the output layer,
also known as a class or label. However, once trained over a finite set of
classes, a deep learning model does not have the power to say that a given
input does not belong to any of the classes and simply cannot be linked.
Correctly invalidating the prediction of unrelated classes is a challenging
problem that has been tackled in many ways in the literature. Novelty detection
gives deep learning the ability to output "do not know" for novel/unseen
classes. Still, no attention has been given to the security aspects of novelty
detection. In this paper, we consider the case study of abstraction-based
novelty detection and show that it is not robust against adversarial samples.
Moreover, we show the feasibility of crafting adversarial samples that fool the
deep learning classifier and bypass the novelty detection monitoring at the
same time. In other words, these monitoring boxes are hackable. We demonstrate
that novelty detection itself ends up as an attack surface.
- Abstract(参考訳): ディープラーニングは、概念の深い階層に適応する機械学習の一種である。
ディープラーニング分類器は、入力層における概念の最も基本的なバージョンと出力層における概念の最も抽象的なバージョン(クラスまたはラベルとしても知られる)をリンクする。
しかし、一度有限個のクラスで訓練されたとき、深層学習モデルは与えられた入力がどのクラスにも属さず、単純にリンクできないと言う力を持っていない。
非関連クラスの予測を正しく無効にすることは、文学において多くの点で取り組まれてきた難しい問題である。
新規性検出は、新しい/見えないクラスに対して「知らない」出力を深層学習に与えます。
それでも、新規性検出のセキュリティ面には注意が向けられていない。
本稿では,抽象に基づく新奇性検出のケーススタディを考察し,敵のサンプルに対して頑健ではないことを示す。
さらに,深層学習分類器を騙し,新奇な検出監視をバイパスする,逆行的なサンプル作成の可能性を示す。
言い換えれば、これらの監視ボックスはハック可能である。
新規検出自体が攻撃面となることを実証する。
関連論文リスト
- Unsupervised Continual Anomaly Detection with Contrastively-learned
Prompt [80.43623986759691]
UCADと呼ばれる新しい非教師付き連続異常検出フレームワークを提案する。
このフレームワークは、対照的に学習したプロンプトを通じて、UDAに継続的な学習能力を持たせる。
我々は総合的な実験を行い、教師なし連続異常検出とセグメンテーションのベンチマークを設定した。
論文 参考訳(メタデータ) (2024-01-02T03:37:11Z) - Semantic Novelty Detection via Relational Reasoning [17.660958043781154]
本稿では,関係推論に基づく表現学習パラダイムを提案する。
実験の結果,この知識は様々なシナリオに直接伝達可能であることがわかった。
クローズドセット認識モデルを信頼できるオープンセットに変換するプラグイン・アンド・プレイモジュールとして利用することができる。
論文 参考訳(メタデータ) (2022-07-18T15:49:27Z) - The Familiarity Hypothesis: Explaining the Behavior of Deep Open Set
Methods [86.39044549664189]
特徴ベクトルデータに対する異常検出アルゴリズムは異常を外れ値として識別するが、外れ値検出はディープラーニングではうまく機能しない。
本論文は, 新規性の有無ではなく, 慣れ親しんだ特徴の欠如を検知しているため, これらの手法が成功するというFamiliarity仮説を提案する。
本論文は,親しみやすさの検出が表現学習の必然的な結果であるかどうかを論じる。
論文 参考訳(メタデータ) (2022-03-04T18:32:58Z) - Self-supervised Transformer for Deepfake Detection [112.81127845409002]
現実世界のシナリオにおけるディープフェイク技術は、顔偽造検知器のより強力な一般化能力を必要とする。
転送学習に触発されて、他の大規模な顔関連タスクで事前訓練されたニューラルネットワークは、ディープフェイク検出に有用な機能を提供する可能性がある。
本稿では,自己教師型変換器を用いた音声視覚コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-02T17:44:40Z) - Adversarially Robust One-class Novelty Detection [83.1570537254877]
既存のノベルティ検出器は敵の例に感受性があることが示される。
本稿では, 新規性検知器の潜伏空間を制御し, 敵に対する堅牢性を向上する防衛戦略を提案する。
論文 参考訳(メタデータ) (2021-08-25T10:41:29Z) - DeepfakeUCL: Deepfake Detection via Unsupervised Contrastive Learning [20.94569893388119]
教師なしコントラスト学習による新しいディープフェイク検出手法を設計する。
本手法は最先端の教師技術に匹敵する検出性能を示す。
論文 参考訳(メタデータ) (2021-04-23T09:48:10Z) - ExAD: An Ensemble Approach for Explanation-based Adversarial Detection [17.455233006559734]
説明手法のアンサンブルを用いて逆例を検出するフレームワークであるExADを提案する。
3つの画像データセットに対する6つの最先端の敵攻撃によるアプローチの評価を行った。
論文 参考訳(メタデータ) (2021-03-22T00:53:07Z) - Open-Vocabulary Object Detection Using Captions [42.76261152761722]
オープンボキャブラリオブジェクト検出は、弱教師付きおよびゼロショットアプローチよりも一般的で、実用的で、効果的である。
提案手法は,トレーニング中に境界ボックスアノテーションが提供されないオブジェクトを,ゼロショットアプローチよりもはるかに高い精度で検出し,ローカライズすることができることを示す。
論文 参考訳(メタデータ) (2020-11-20T23:05:46Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z) - Any-Shot Object Detection [81.88153407655334]
「アニーショット検出」とは、全く見えず、数発のカテゴリが推論中に同時に共起できる場所である。
我々は、ゼロショットと少数ショットの両方のオブジェクトクラスを同時に検出できる、統合された任意のショット検出モデルを提案する。
我々のフレームワークは、ゼロショット検出とFewショット検出タスクにのみ使用できる。
論文 参考訳(メタデータ) (2020-03-16T03:43:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。