論文の概要: Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity
- arxiv url: http://arxiv.org/abs/2012.06330v1
- Date: Wed, 9 Dec 2020 14:13:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 01:49:32.793439
- Title: Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity
- Title(参考訳): 特徴保存型オートエンコーダと自己相似性を用いたFew-shot分類器の逆支援検出
- Authors: Yi Xiang Marcus Tan, Penny Chong, Jiamei Sun, Yuval Elovici, Alexander
Binder
- Abstract要約: 敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
- 参考スコア(独自算出の注目度): 89.26308254637702
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot classifiers excel under limited training samples, making it useful
in real world applications. However, the advent of adversarial samples
threatens the efficacy of such classifiers. For them to remain reliable,
defences against such attacks must be explored. However, closer examination to
prior literature reveals a big gap in this domain. Hence, in this work, we
propose a detection strategy to highlight adversarial support sets, aiming to
destroy a few-shot classifier's understanding of a certain class of objects. We
make use of feature preserving autoencoder filtering and also the concept of
self-similarity of a support set to perform this detection. As such, our method
is attack-agnostic and also the first to explore detection for few-shot
classifiers to the best of our knowledge. Our evaluation on the miniImagenet
and CUB datasets exhibit optimism when employing our proposed approach, showing
high AUROC scores for detection in general.
- Abstract(参考訳): 限定的なトレーニングサンプルの下では、少数ショットの分類器が優れているため、実世界のアプリケーションで有用である。
しかし、反対サンプルの出現はそのような分類器の有効性を脅かす。
信頼性を保つためには、そのような攻撃に対する防衛策を検討する必要がある。
しかし、先行文献への精査により、この分野に大きなギャップが明らかになる。
そこで本研究では,特定の対象のクラスに対する少数の分類器の理解を破壊することを目的とした,敵対的支援セットを強調する検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
そのため,本手法は攻撃に非依存であり,その知識を最大限に活用するために,数発の分類器の検出を初めて検討した。
提案手法を用いる場合, miniImagenet と CUB のデータセットに対する評価は楽観的であり,AUROC のスコアが高い。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - MEAD: A Multi-Armed Approach for Evaluation of Adversarial Examples
Detectors [24.296350262025552]
いくつかの攻撃戦略に基づいて検知器を評価するための新しいフレームワークMEADを提案する。
そのうちの1つは、攻撃を起こすための3つの新しい目的である。
提案したパフォーマンス指標は最悪のシナリオに基づいている。
論文 参考訳(メタデータ) (2022-06-30T17:05:45Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Using Anomaly Feature Vectors for Detecting, Classifying and Warning of
Outlier Adversarial Examples [4.096598295525345]
分類ニューラルネットワークに提示される敵入力を検出し,分類し,警告するシステムであるDeClaWについて述べる。
予備的な発見は、AFVがCIFAR-10データセット上で93%近い精度で、いくつかの種類の敵攻撃を区別するのに役立つことを示唆している。
論文 参考訳(メタデータ) (2021-07-01T16:00:09Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - ATRO: Adversarial Training with a Rejection Option [10.36668157679368]
本稿では, 逆例による性能劣化を軽減するために, 拒否オプション付き分類フレームワークを提案する。
分類器と拒否関数を同時に適用することにより、テストデータポイントの分類に自信が不十分な場合に分類を控えることができる。
論文 参考訳(メタデータ) (2020-10-24T14:05:03Z) - Open-set Adversarial Defense [93.25058425356694]
オープンセット認識システムは敵攻撃に対して脆弱であることを示す。
本研究の目的は,OSAD(Open-Set Adrial Defense, Open-Set Adrial Defense)機構の必要性である。
本稿はOSAD問題に対する解決策として,OSDN(Open-Set Defense Network)を提案する。
論文 参考訳(メタデータ) (2020-09-02T04:35:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。