論文の概要: Adversarial Detection without Model Information
- arxiv url: http://arxiv.org/abs/2202.04271v1
- Date: Wed, 9 Feb 2022 04:38:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 15:10:50.174481
- Title: Adversarial Detection without Model Information
- Title(参考訳): モデル情報のない逆検出
- Authors: Abhishek Moitra, Youngeun Kim, and Priyadarshini Panda
- Abstract要約: 簡単なエネルギー関数を用いたモデル独立逆方向検出法を提案する。
我々は,自然および逆入力に対応するエネルギー分離を高めるために,逐次的な層回りのトレーニングを施し,基礎モデルに依存しない独立検出器を訓練する。
本手法は, 幅広い勾配, スコア, 判定に基づく敵攻撃に対して, 最先端検出性能(ROC-AUC > 0.9)を実現する。
- 参考スコア(独自算出の注目度): 4.4890837610757695
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most prior state-of-the-art adversarial detection works assume that the
underlying vulnerable model is accessible, i,e., the model can be trained or
its outputs are visible. However, this is not a practical assumption due to
factors like model encryption, model information leakage and so on. In this
work, we propose a model independent adversarial detection method using a
simple energy function to distinguish between adversarial and natural inputs.
We train a standalone detector independent of the underlying model, with
sequential layer-wise training to increase the energy separation corresponding
to natural and adversarial inputs. With this, we perform energy
distribution-based adversarial detection. Our method achieves state-of-the-art
detection performance (ROC-AUC > 0.9) across a wide range of gradient, score
and decision-based adversarial attacks on CIFAR10, CIFAR100 and TinyImagenet
datasets. Compared to prior approaches, our method requires ~10-100x less
number of operations and parameters for adversarial detection. Further, we show
that our detection method is transferable across different datasets and
adversarial attacks. For reproducibility, we provide code in the supplementary
material.
- Abstract(参考訳): 従来の最先端の敵検出作業の多くは、基盤となる脆弱性モデルがアクセス可能であることを前提としている。
モデルをトレーニングしたり、そのアウトプットを見ることができる。
しかし、モデル暗号化やモデル情報漏洩などの要因があるため、これは現実的な仮定ではない。
本研究では, 単純なエネルギー関数を用いて, 逆入力と自然入力を区別するモデル独立逆検出法を提案する。
我々は,自然および逆入力に対応するエネルギー分離を高めるために,逐次的な層回りのトレーニングを施した独立検出器を訓練する。
これにより,エネルギー分布に基づく逆検出を行う。
提案手法は, CIFAR10, CIFAR100, TinyImagenetデータセットに対して, 幅広い勾配, スコア, 判定に基づく攻撃に対して, 最先端検出性能(ROC-AUC > 0.9)を実現する。
従来の手法と比較して,本手法は10~100倍の演算数とパラメータを必要とする。
さらに,本検出手法は,異なるデータセットや敵攻撃にまたがって転送可能であることを示す。
再現性のため、補足材料にコードを提供します。
関連論文リスト
- On the Inherent Robustness of One-Stage Object Detection against Out-of-Distribution Data [6.7236795813629]
画像データ中の未知物体を検出する新しい検出アルゴリズムを提案する。
モデルによって抽出された特徴に対する次元の呪いの影響を軽減するために、教師付き次元削減技術を利用する。
これは高解像度の特徴マップを用いて、教師なしの方法で潜在的に未知の物体を識別する。
論文 参考訳(メタデータ) (2024-11-07T10:15:25Z) - DSDE: Using Proportion Estimation to Improve Model Selection for Out-of-Distribution Detection [15.238164468992148]
CIFAR10とCIFAR100の実験結果から,OoD検出問題に対処するためのアプローチの有効性が示された。
提案手法をDOS-Storey-based Detector Ensemble (DSDE) と呼ぶ。
論文 参考訳(メタデータ) (2024-11-03T09:01:36Z) - Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [58.60915132222421]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - Detecting Adversarial Data via Perturbation Forgery [28.637963515748456]
逆検出は、自然データと逆データの間の分布とノイズパターンの相違に基づいて、データフローから逆データを特定し、フィルタリングすることを目的としている。
不均衡および異方性雑音パターンを回避した生成モデルに基づく新しい攻撃
本研究では,ノイズ分布の摂動,スパースマスク生成,擬似対向データ生成を含む摂動フォージェリを提案し,未知の勾配に基づく,生成モデルに基づく,物理的対向攻撃を検出することができる対向検出器を訓練する。
論文 参考訳(メタデータ) (2024-05-25T13:34:16Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - PASA: Attack Agnostic Unsupervised Adversarial Detection using Prediction & Attribution Sensitivity Analysis [2.5347892611213614]
分類のためのディープニューラルネットワークは、サンプル入力に対する小さな摂動が誤った予測につながる敵攻撃に対して脆弱である。
本研究では, モデル予測と特徴属性のこの特性の実用的手法を開発し, 対向サンプルを検出する。
本手法は,敵が防御機構を認識した場合でも,競争性能を示す。
論文 参考訳(メタデータ) (2024-04-12T21:22:21Z) - Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Adversarial Detection and Correction by Matching Prediction
Distributions [0.0]
この検出器は、MNISTとFashion-MNISTに対するCarini-WagnerやSLIDEのような強力な攻撃をほぼ完全に中和する。
本手法は,攻撃者がモデルと防御の両方について十分な知識を持つホワイトボックス攻撃の場合においても,なおも敵の例を検出することができることを示す。
論文 参考訳(メタデータ) (2020-02-21T15:45:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。